ARKit

덤프버전 :



ARKit
파일:ARKit-3.png
개발
Apple
출시
2017년 6월
플랫폼
iOS | iPadOS | macOS
ARKit 공식사이트


1. 개요
2. 상세
3. 업데이트
3.1. ARKit 2
3.2. ARKit 3
3.3. ARKit 4
4. 관련 외부링크



1. 개요[편집]


Apple이 개발하고, 2017년 6월 WWDC17에서 공개한 AR앱을 제작하는 소프트웨어 프레임워크이다. iPhone, iPad, Mac 등의 Apple 제품에서 AR기술을 구현하고 사용하게 해준다.


2. 상세[편집]


ARKit이 활용된 예시 중 가장 유명한 것으로는 Apple 기본애플리케이션인 '측정'앱과 Apple의 제품을 iPhoneiPad사파리에서 AR로 보는 것이 있으며, 2019년 iPhone 11시리즈에서 U1칩셋을 탑재한 이후로 활용성이 더 넓어지고 있다. 또한 AirPods Pro에 추가된 공간 음향 기능과 더해져 시너지를 낼 것으로 기대하고 있다.

ARKit이 공개된지 몇 달만에 이를 활용하여 다양한 앱들에서 AR 기능이 추가되어 앱스토어에 업데이트 되기 시작했다. 인체 해부 실습 'Human Anatomy Atlas' 앱, IKEA의 '이케아 플레이스' 앱, 용 사육 게임 'AR드래곤' 앱 등이 많은 관심을 받았다.

개발자들은 2017년 출시된 아이폰X 이후로 노치아이폰에 탑재된 FaceID의 3D 스캐닝 센서를 이용해 물체를 3D 스캐닝 하는 앱을 제작하기도 하였다.

2019년, NIKE의 신발들을 AR로 신어볼 수 있는 'Wanna Kicks' 앱이 출시되었다. 이후 비슷한 착용 앱이 줄지어 나오고 있으며, 명품브랜드 GUCCI도 자사 앱에 AR로 신발을 신어보는 기능을 추가하였다.

2020년 4월, iPad Pro 112세대, iPad Pro 12.94세대에서 그리고 10월엔 iPhone 12 Pro, iPhone 12 Pro Max에도 LiDAR센서가 탑재되면서 AR앱 사용성이 더욱 정밀해지고 있다.

2021년 4월, AirTag의 '정밀 탐색' 기능에 사용되며 3차원 공간수준의 추적기능을 선보였다.

3. 업데이트[편집]



3.1. ARKit 2[편집]


  • 2018년 6월 WWDC18을 통해 ARKit 2를 공개하였다.#
    • 얼굴 표정 추적 개선
    • 사실적인 렌더링 : 조명의 정확성이 개선되었다
    • 3D 물체 감지 : 완전한 3D 물체를 감지할 수 있게 개선되었다.
    • 지속적인 경험 : 물리적 사물과 연결된 AR공간과 물체를 저장했다가 나중에 그 경험을 이어서 할 수 있다.
    • 경험 공유 : 여러명의 사용자가 각자의 시점에서 같은 가상환경을 공유할 수 있게 되었다.


3.2. ARKit 3[편집]


  • 2019년 6월 WWDC19를 통해 ARkit 3를 공개하였다.#
    • 모션캡쳐 : 한 대의 카메라로 사람의 움직임을 실시간으로 캡처합니다. 몸의 위치와 움직임을 일련의 관절과 뼈로 파악하여 AR 경험에 동작과 자세를 입력하면서 AR의 중심에 인물을 배치할 수 있습니다. 높이 추정은 별도의 코드 변경 없이 iPhone 12, iPhone 12 Pro, iPad Pro에서 ARKit으로 빌드한 모든 앱에 대해 향상된 기능을 선보입니다.
    • 다중얼굴추적 : ARKit 얼굴 추적 기능은 Apple Neural Engine과 전면 카메라가 탑재된 모든 기기에서 한 번에 최대 3명의 얼굴을 추적하면서 미모티콘 및 Snapchat과 같은 AR 경험을 지원합니다.
    • 인물 오클루전: AR 콘텐츠를 현실 세계에 있는 인물의 앞이나 뒤에 사실적으로 표시하면서 AR 경험을 더 몰입감 있게 만드는 동시에 대부분의 환경에서 '그린' 화면 스타일 효과를 적용할 수 있습니다. 깊이 추정은 별도의 코드 변경 없이 iPhone 12, iPhone 12 Pro, iPad Pro에서 ARKit으로 빌드한 모든 앱에 대해 향상된 기능을 선보입니다.
    • 협업 세션 : 여러 사람들과의 실시간 협업 세션을 사용하여 공동으로 AR 앱을 제작할 수 있으므로 AR 경험을 더욱 빠르게 개발하고 사용자들이 공유 AR 경험을 멀티 플레이어 게임처럼 즐기게 할 수 있다.


3.3. ARKit 4[편집]


  • 2020년 6월 WWDC20을 통해 ARkit 4를 공개하였다.#
    • Depth API : API에서는 LiDAR 스캐너에 내장된 고급 장면 인식 기능을 통해 주변 환경에 대한 픽셀당 심도 정보를 사용할 수 있습니다. 이 심도 정보를 Scene Geometry에서 생성된 3D 메시 데이터와 결합하면 가상 물체를 즉각적으로 배치하고 실제 환경에 원활하게 혼합하여 가상의 사물 오클루전을 더 사실적으로 구현할 수 있습니다. 이를 통해 더 정밀한 측정 및 사용자 환경에 효과 적용 등 앱 내에서 새로운 기능을 구현할 수 있습니다.
    • 위치 앵커 : 유명 랜드마크 및 도시 곳곳의 특정 위치에서 AR 경험을 구현할 수 있습니다. 위치 앵커를 통해 특정 위도, 경도 및 고도 좌표에 AR 창작물을 고정할 수 있습니다. 사용자는 카메라 렌즈를 통해 실제 물체를 보는 것처럼 가상 물체를 움직이고 다른 시각에서 확인할 수 있습니다.
    • 얼굴 추적 기능 지원 확대 : 얼굴 추적 기능에 대한 지원이 iPhone SE를 포함하여 A12 Bionic 칩 이상이 탑재된 모든 기기의 전면 카메라로 확대되어 더 많은 사용자가 전면 카메라를 사용하여 AR 경험을 즐길 수 있습니다. TrueDepth 카메라를 사용하여 한 번에 최대 3명의 얼굴을 추적하면서 미모티콘 및 Snapchat과 같은 전면 카메라 경험을 지원합니다.


4. 관련 외부링크[편집]


파일:크리에이티브 커먼즈 라이선스__CC.png 이 문서의 내용 중 전체 또는 일부는 2023-10-20 05:58:58에 나무위키 ARKit 문서에서 가져왔습니다.