이제 Android XR SDK를 개발자 프리뷰로 사용할 수 있습니다. 의견을 기다립니다!
지원 페이지를 방문하여 문의하세요.
OpenXR로 개발
컬렉션을 사용해 정리하기
내 환경설정을 기준으로 콘텐츠를 저장하고 분류하세요.
Android XR은 OpenXR 1.1 사양 및 일부 공급업체 확장 프로그램 지원을 통해 OpenXR로 빌드된 앱을 지원합니다.
OpenXR은 다양한 XR 기기에서 공통 API 세트를 사용하여 몰입형 대화형 환경을 만들 수 있는 개방형 표준입니다.
기능
Android XR은 OpenXR을 사용하여 XR 기기의 고유한 기능을 최대한 활용하는 앱을 빌드할 수 있는 기능을 지원합니다. 이러한 기능에는 다음이 포함됩니다.
- Trackables
- 환경 내에서 평면을 식별하고 추적하는 기능인 평면 감지를 지원하여 실제 세계와 관련된 가상 객체와 앵커를 배치할 수 있습니다. 앵커는 실제 객체나 위치에 연결할 수 있는 가상 참조점으로, 사용자가 이동하더라도 가상 콘텐츠가 정확하게 배치되고 방향이 지정되도록 합니다.
- Raycast하기
- 가상 광선과 장면의 객체 간 교차점을 파악하여 가상 요소를 선택하고 조작하는 등의 상호작용을 지원하는 기술입니다.
- 앵커 지속성
- 여러 세션에서 앵커를 저장하고 복원하여 환경 내에서 가상 콘텐츠를 지속적이고 일관되게 배치할 수 있는 기능
- 객체 추적
- 실제 세계에서 마우스, 키보드, 기타 객체를 추적하는 기능
- QR 코드 추적
- 물리적 환경에서 QR 코드를 추적하고 데이터를 디코딩하는 기능
- 깊이 텍스처
- 카메라와 장면 속 객체 간 거리에 관한 정보를 제공하는 깊이 지도를 생성하여 더욱 사실적인 폐색 및 상호작용 효과를 지원합니다.
- 패스 스루
- 실제 카메라 영상을 가상 콘텐츠와 혼합하여 실제 세계와 디지털 세계를 매끄럽게 결합하는 혼합 현실 환경을 만들 수 있습니다.
- 장면 메싱
- 물리, 폐색, 기타 세계 인식 상호작용에 사용할 수 있는 환경의 3D 메시를 획득하는 기능
- 컴포지션 레이어 패스 스루
- 폴리곤 패스스루 컴포지션 레이어 컷아웃을 허용하며, 실제 객체를 장면으로 가져오는 데 사용할 수 있습니다.
- 얼굴 추적
- 사용자 얼굴의 특징을 추적하여 더 사실적이고 표현력이 풍부한 아바타와 가상 캐릭터를 만들 수 있습니다.
- 눈 추적
- 아바타의 눈 자세를 더 사실적으로 만들기 위해 설계된 사용자 눈의 위치와 방향을 제공합니다.
- 손 추적
- 사용자 손의 위치와 움직임을 추적하는 기능
- 손 메시
- 사용자의 손을 로우 폴리 메시로 정확하게 표현합니다. 최고의 성능을 제공하기 위해 플랫폼에서 애플리케이션으로의 전송에 최적화되어 있습니다. 이는 바인드 포즈와 블렌드 가중치를 사용하는 다른 확장 프로그램의 대안입니다.
- 조명 추정
- 사용자의 실제 조명 조건과 일치하도록 조명 모델에 사용됩니다.
Android XR은 다음 입력 기기도 지원합니다.
- 손 상호작용
- 손가락으로 집기, 스와이프, 가리키기 등의 특정 손 동작을 인식하여 사용자가 동작과 손 움직임을 사용하여 가상 객체와 상호작용할 수 있습니다.
- 시선 상호작용
- 사용자의 시선으로 가상 객체를 선택하고 상호작용할 수 있도록 사용자의 시선 움직임을 추적하는 기능
- 6DoF 모션 컨트롤러
- 애플리케이션 내에서 작업을 트리거하거나 호버 이벤트를 트리거하기 위한 D패드 및 버튼 바인딩과 함께 컨트롤러의 위치와 움직임을 추적하는 기능
- 마우스 상호작용
- 사용자가 3D 공간에서 마우스 포인터를 통해 객체와 상호작용할 수 있는 기능
Android XR은 다음과 같은 성능 관련 기능을 지원합니다.
- 눈 추적 포비에이션
- 앱이 눈 초점 지점에서만 더 높은 해상도 콘텐츠를 렌더링하도록 허용합니다.
- 스페이스 워프
- 속도 벡터와 깊이 텍스처 정보를 사용하여 트윈 프레임을 생성하여 사용자가 환경에 몰입하는 데 필요한 프레임 속도를 효과적으로 높입니다.
- 실적 측정항목
- 현재 XR 기기, 컴포지터, XR 애플리케이션의 런타임에 Android XR 성능 측정항목을 제공합니다. 여기에는 CPU 프레임 시간, GPU 프레임 시간, GPU 사용률, CPU 주파수, 초당 프레임 수, 기타가 포함됩니다.
지원되는 기능 및 확장 프로그램의 전체 목록은 OpenXR 기능 개요를 참고하세요.
지원되는 엔진
Unity
OpenXR을 기반으로 빌드된 Android XR의 Unity 지원을 통해 개발자는 Unity 6을 사용하여 환경을 만들 수 있습니다. Unity 개요에서 Unity로 XR 앱을 빌드하는 방법을 자세히 알아보세요.
OpenXR™ 및 OpenXR 로고는 The Khronos Group Inc. 소유의 상표이며 중국, 유럽 연합, 일본, 영국에 상표로 등록되어 있습니다.
이 페이지에 나와 있는 콘텐츠와 코드 샘플에는 콘텐츠 라이선스에서 설명하는 라이선스가 적용됩니다. 자바 및 OpenJDK는 Oracle 및 Oracle 계열사의 상표 또는 등록 상표입니다.
최종 업데이트: 2025-07-30(UTC)
[[["이해하기 쉬움","easyToUnderstand","thumb-up"],["문제가 해결됨","solvedMyProblem","thumb-up"],["기타","otherUp","thumb-up"]],[["필요한 정보가 없음","missingTheInformationINeed","thumb-down"],["너무 복잡함/단계 수가 너무 많음","tooComplicatedTooManySteps","thumb-down"],["오래됨","outOfDate","thumb-down"],["번역 문제","translationIssue","thumb-down"],["샘플/코드 문제","samplesCodeIssue","thumb-down"],["기타","otherDown","thumb-down"]],["최종 업데이트: 2025-07-30(UTC)"],[],[],null,["# Develop with OpenXR\n\nAndroid XR supports apps built with [OpenXR](https://www.khronos.org/openxr/) through its support\nfor the [OpenXR 1.1 specification and select vendor extensions](https://registry.khronos.org/OpenXR/specs/1.1/html/xrspec.html).\nOpenXR is an open standard that lets you create immersive and interactive\nexperiences using a common set of APIs across a wide range of XR devices.\n\nFeatures\n--------\n\nAndroid XR supports features that allow you to build apps that take full\nadvantage of the unique capabilities of XR devices, using OpenXR. These features\ninclude the following.\n\nTrackables\n: Supports *plane detection* , which is the ability to identify and\n track flat surfaces within the environment, enabling the placement of\n virtual objects in relation to the real world and *Anchors* which are\n virtual points of reference that can be attached to real-world objects or\n locations, ensuring that virtual content remains accurately positioned and\n oriented even as the user moves around.\n\nRaycasting\n: A technique used to determine the intersection point between a\n virtual ray and objects in the scene, facilitating interactions such as\n selecting and manipulating virtual elements.\n\nAnchor persistence\n: The capability to save and restore anchors across multiple\n sessions, allowing for persistent and consistent placement of virtual\n content within the environment.\n\nObject tracking\n: The ability to track mouse, keyboard and other objects in the\n real-world.\n\nQR Code tracking\n: The ability to track QR Codes in the physical environment and decode\n their data.\n\nDepth textures\n: The generation of depth maps that provide information about the\n distance between the camera and objects in the scene, enabling more\n realistic occlusion and interaction effects.\n\nPassthrough\n: The ability to blend real-world camera footage with virtual\n content, creating a mixed reality experience that seamlessly combines the\n physical and digital worlds.\n\nScene meshing\n: The ability to acquire a 3D mesh of the environment, which can be\n used for physics, occlusion, and other world-aware interactions.\n\nComposition layer passthrough\n: Allows for a polygon passthrough composition\n layer cutout, can be used for bringing real world objects into a scene.\n\nFace tracking\n: The ability to track the features of the user's face, enabling\n the creation of more realistic and expressive avatars and virtual\n characters.\n\nEye tracking\n: Provides position and orientation of the user's eye, which is\n designed to make eye pose for avatars more realistic.\n\nHand tracking\n: The ability to track the position and movement of the user's hands.\n\nHand mesh\n: Provides an accurate representation of the user's hands as a low\n poly mesh. Optimized for platform-to-application delivery to make sure you\n get the best performance possible. This is an alternative to other\n extensions which use a bind pose and blend weights.\n\nLight estimation\n: Used for lighting models to match the user's real world lighting conditions.\n\nSupported input devices\n-----------------------\n\nAndroid XR also supports the following input devices.\n\nHand Interaction\n: The recognition of specific hand gestures, such as\n pinching, swiping, and pointing, enabling the users to interact with virtual\n objects using gestures and hand movements.\n\nEye Gaze Interaction\n: The ability to track the user's eye movements,\n allowing them to select and interact with virtual objects using their gaze.\n\n6DoF Motion Controllers\n: The ability to track the controllers position and\n movement along with Dpad and button bindings for triggering actions, or\n hover events within the application.\n\nMouse Interaction\n: The ability for users to interact with objects through a\n mouse pointer in 3D space\n\nSupported performance features\n------------------------------\n\nAndroid XR supports the following performance-related features.\n\nEye-tracked foveation\n: Allows an app to render higher resolution content only\n at the eyes focal point.\n\nSpace warp\n: Uses velocity vectors and depth texture information to\n generate tween frames which effectively boosts the framerate required to\n keep your users immersed in your experiences\n\nPerformance metrics\n: Provides Android XR performance metrics at runtime of\n the current XR device, compositor, and XR application. This includes cpu\n frametime, gpu frame time, gpu utilization, cpu frequency, frames per second\n and [more](/develop/xr/openxr/extensions/XR_ANDROID_performance_metrics).\n\nSee the [OpenXR Feature Overview](/develop/xr/openxr/extensions) for a full list of supported features and\nextensions.\n\nSupported engines\n-----------------\n\n| **Note:** The [Android XR emulator](/develop/xr/jetpack-xr-sdk/studio-tools#android-xr) is not supported for Unity or OpenXR apps.\n\nUnity\n-----\n\nAndroid XR's Unity support, built on top of OpenXR, allows developers to create\nexperiences using Unity 6. Learn more about building XR apps with Unity in the\n[Unity overview](/develop/xr/unity).\n\n*** ** * ** ***\n\nOpenXR™ and the OpenXR logo are trademarks owned\nby The Khronos Group Inc. and are registered as a trademark in China,\nthe European Union, Japan and the United Kingdom."]]