El SDK de Android XR ahora está disponible en la Versión preliminar para desarrolladores. Deseamos obtener tus comentarios. Visita nuestra
página de asistencia para comunicarte con nosotros.
Desarrolla con OpenXR
Organiza tus páginas con colecciones
Guarda y categoriza el contenido según tus preferencias.
Android XR admite apps compiladas con OpenXR a través de su compatibilidad con la especificación de OpenXR 1.1 y extensiones de proveedores seleccionadas.
OpenXR es un estándar abierto que te permite crear experiencias interactivas y envolventes con un conjunto común de APIs en una amplia variedad de dispositivos XR.
Funciones
Android XR admite funciones que te permiten compilar apps que aprovechan al máximo las capacidades únicas de los dispositivos de RE con OpenXR. Entre estas funciones, se incluyen las siguientes:
- Objetos rastreables
- Admite la detección de planos, que es la capacidad de identificar y hacer un seguimiento de las superficies planas dentro del entorno, lo que permite colocar objetos virtuales en relación con el mundo real y las anclas, que son puntos de referencia virtuales que se pueden unir a objetos o ubicaciones del mundo real, lo que garantiza que el contenido virtual permanezca posicionado y orientado con precisión incluso cuando el usuario se mueve.
- Usar Raycasting
- Técnica que se usa para determinar el punto de intersección entre un rayo virtual y los objetos de la escena, lo que facilita las interacciones, como seleccionar y manipular elementos virtuales.
- Persistencia de anclaje
- La capacidad de guardar y restablecer anclajes en varias sesiones, lo que permite la colocación persistente y coherente de contenido virtual dentro del entorno.
- Seguimiento de objetos
- La capacidad de hacer un seguimiento del mouse, el teclado y otros objetos en el mundo real
- Seguimiento de códigos QR
- La capacidad de hacer un seguimiento de los códigos QR en el entorno físico y decodificar sus datos.
- Texturas de profundidad
- La generación de mapas de profundidad que proporcionan información sobre la distancia entre la cámara y los objetos de la escena, lo que permite efectos de oclusión y de interacción más realistas.
- Modo de cámara externa
- La capacidad de combinar imágenes de la cámara del mundo real con contenido virtual, lo que crea una experiencia de realidad mixta que combina a la perfección los mundos físico y digital.
- Generación de malla de la escena
- La capacidad de adquirir una malla 3D del entorno, que se puede usar para la física, la oclusión y otras interacciones que tienen en cuenta el mundo.
- Transferencia de capa de composición
- Permite un corte de capa de composición de transferencia de polígonos, que se puede usar para incorporar objetos del mundo real a una escena.
- Seguimiento de rostros
- La capacidad de hacer un seguimiento de los rasgos faciales del usuario, lo que permite crear avatares y personajes virtuales más realistas y expresivos
- Seguimiento de ojos
- Proporciona la posición y la orientación del ojo del usuario, lo que está diseñado para que la postura de los ojos de los avatares sea más realista.
- Monitoreo de manos
- La capacidad de hacer un seguimiento de la posición y el movimiento de las manos del usuario
- Malla de la mano
- Proporciona una representación precisa de las manos del usuario como una malla de pocos polígonos. Está optimizado para la entrega de la plataforma a la aplicación, lo que garantiza el mejor rendimiento posible. Esta es una alternativa a otras extensiones que usan una pose de vinculación y pesos de combinación.
- Estimación de luz
- Se usa para que los modelos de iluminación coincidan con las condiciones de iluminación del mundo real del usuario.
Android XR también admite los siguientes dispositivos de entrada.
- Interacción con la mano
- El reconocimiento de gestos específicos con las manos, como pellizcar, deslizar y señalar, lo que permite a los usuarios interactuar con objetos virtuales a través de gestos y movimientos de las manos.
- Interacción con la mirada
- La capacidad de hacer un seguimiento de los movimientos oculares del usuario, lo que le permite seleccionar objetos virtuales e interactuar con ellos con la mirada.
- Controles de movimiento de 6 grados de libertad
- La capacidad de hacer un seguimiento de la posición y el movimiento de los controles, junto con las vinculaciones de botones y el pad direccional para activar acciones o eventos de desplazamiento dentro de la aplicación
- Interacción del mouse
- La capacidad de los usuarios para interactuar con objetos a través de un puntero del mouse en el espacio 3D
Android XR admite las siguientes funciones relacionadas con el rendimiento.
- Foveación basada en el seguimiento de ojos
- Permite que una app renderice contenido de mayor resolución solo en el punto focal de los ojos.
- Deformación espacial
- Usa vectores de velocidad y la información de la textura de profundidad para generar fotogramas intermedios que aumentan de manera eficaz la velocidad de fotogramas necesaria para que los usuarios se mantengan inmersos en tus experiencias
- Métricas de rendimiento
- Proporciona métricas de rendimiento de Android XR durante el tiempo de ejecución del dispositivo XR, el compositor y la aplicación de XR actuales. Esto incluye la latencia de fotogramas de la CPU, la latencia de fotogramas de la GPU, el uso de la GPU, la frecuencia de la CPU, los fotogramas por segundo y mucho más.
Consulta el Resumen de funciones de OpenXR para obtener una lista completa de las funciones y extensiones compatibles.
Motores compatibles
Unity
La compatibilidad de Android XR con Unity, compilada sobre OpenXR, permite a los desarrolladores crear experiencias con Unity 6. Obtén más información para compilar apps de XR con Unity en la descripción general de Unity.
OpenXR™ y el logotipo de OpenXR son marcas comerciales propiedad de The Khronos Group Inc. y están registradas como marcas comerciales en China, la Unión Europea, Japón y el Reino Unido.
El contenido y las muestras de código que aparecen en esta página están sujetas a las licencias que se describen en la Licencia de Contenido. Java y OpenJDK son marcas registradas de Oracle o sus afiliados.
Última actualización: 2025-07-30 (UTC)
[[["Fácil de comprender","easyToUnderstand","thumb-up"],["Resolvió mi problema","solvedMyProblem","thumb-up"],["Otro","otherUp","thumb-up"]],[["Falta la información que necesito","missingTheInformationINeed","thumb-down"],["Muy complicado o demasiados pasos","tooComplicatedTooManySteps","thumb-down"],["Desactualizado","outOfDate","thumb-down"],["Problema de traducción","translationIssue","thumb-down"],["Problema con las muestras o los códigos","samplesCodeIssue","thumb-down"],["Otro","otherDown","thumb-down"]],["Última actualización: 2025-07-30 (UTC)"],[],[],null,["# Develop with OpenXR\n\nAndroid XR supports apps built with [OpenXR](https://www.khronos.org/openxr/) through its support\nfor the [OpenXR 1.1 specification and select vendor extensions](https://registry.khronos.org/OpenXR/specs/1.1/html/xrspec.html).\nOpenXR is an open standard that lets you create immersive and interactive\nexperiences using a common set of APIs across a wide range of XR devices.\n\nFeatures\n--------\n\nAndroid XR supports features that allow you to build apps that take full\nadvantage of the unique capabilities of XR devices, using OpenXR. These features\ninclude the following.\n\nTrackables\n: Supports *plane detection* , which is the ability to identify and\n track flat surfaces within the environment, enabling the placement of\n virtual objects in relation to the real world and *Anchors* which are\n virtual points of reference that can be attached to real-world objects or\n locations, ensuring that virtual content remains accurately positioned and\n oriented even as the user moves around.\n\nRaycasting\n: A technique used to determine the intersection point between a\n virtual ray and objects in the scene, facilitating interactions such as\n selecting and manipulating virtual elements.\n\nAnchor persistence\n: The capability to save and restore anchors across multiple\n sessions, allowing for persistent and consistent placement of virtual\n content within the environment.\n\nObject tracking\n: The ability to track mouse, keyboard and other objects in the\n real-world.\n\nQR Code tracking\n: The ability to track QR Codes in the physical environment and decode\n their data.\n\nDepth textures\n: The generation of depth maps that provide information about the\n distance between the camera and objects in the scene, enabling more\n realistic occlusion and interaction effects.\n\nPassthrough\n: The ability to blend real-world camera footage with virtual\n content, creating a mixed reality experience that seamlessly combines the\n physical and digital worlds.\n\nScene meshing\n: The ability to acquire a 3D mesh of the environment, which can be\n used for physics, occlusion, and other world-aware interactions.\n\nComposition layer passthrough\n: Allows for a polygon passthrough composition\n layer cutout, can be used for bringing real world objects into a scene.\n\nFace tracking\n: The ability to track the features of the user's face, enabling\n the creation of more realistic and expressive avatars and virtual\n characters.\n\nEye tracking\n: Provides position and orientation of the user's eye, which is\n designed to make eye pose for avatars more realistic.\n\nHand tracking\n: The ability to track the position and movement of the user's hands.\n\nHand mesh\n: Provides an accurate representation of the user's hands as a low\n poly mesh. Optimized for platform-to-application delivery to make sure you\n get the best performance possible. This is an alternative to other\n extensions which use a bind pose and blend weights.\n\nLight estimation\n: Used for lighting models to match the user's real world lighting conditions.\n\nSupported input devices\n-----------------------\n\nAndroid XR also supports the following input devices.\n\nHand Interaction\n: The recognition of specific hand gestures, such as\n pinching, swiping, and pointing, enabling the users to interact with virtual\n objects using gestures and hand movements.\n\nEye Gaze Interaction\n: The ability to track the user's eye movements,\n allowing them to select and interact with virtual objects using their gaze.\n\n6DoF Motion Controllers\n: The ability to track the controllers position and\n movement along with Dpad and button bindings for triggering actions, or\n hover events within the application.\n\nMouse Interaction\n: The ability for users to interact with objects through a\n mouse pointer in 3D space\n\nSupported performance features\n------------------------------\n\nAndroid XR supports the following performance-related features.\n\nEye-tracked foveation\n: Allows an app to render higher resolution content only\n at the eyes focal point.\n\nSpace warp\n: Uses velocity vectors and depth texture information to\n generate tween frames which effectively boosts the framerate required to\n keep your users immersed in your experiences\n\nPerformance metrics\n: Provides Android XR performance metrics at runtime of\n the current XR device, compositor, and XR application. This includes cpu\n frametime, gpu frame time, gpu utilization, cpu frequency, frames per second\n and [more](/develop/xr/openxr/extensions/XR_ANDROID_performance_metrics).\n\nSee the [OpenXR Feature Overview](/develop/xr/openxr/extensions) for a full list of supported features and\nextensions.\n\nSupported engines\n-----------------\n\n| **Note:** The [Android XR emulator](/develop/xr/jetpack-xr-sdk/studio-tools#android-xr) is not supported for Unity or OpenXR apps.\n\nUnity\n-----\n\nAndroid XR's Unity support, built on top of OpenXR, allows developers to create\nexperiences using Unity 6. Learn more about building XR apps with Unity in the\n[Unity overview](/develop/xr/unity).\n\n*** ** * ** ***\n\nOpenXR™ and the OpenXR logo are trademarks owned\nby The Khronos Group Inc. and are registered as a trademark in China,\nthe European Union, Japan and the United Kingdom."]]