O SDK do Android XR agora está disponível na prévia para desenvolvedores. Queremos saber sua opinião Acesse nossa
página de suporte para entrar em contato.
Desenvolver com o OpenXR
Mantenha tudo organizado com as coleções
Salve e categorize o conteúdo com base nas suas preferências.
O Android XR é compatível com apps criados com OpenXR por meio do suporte
à especificação OpenXR 1.1 e extensões de fornecedores selecionados.
O OpenXR é um padrão aberto que permite criar experiências imersivas e interativas usando um conjunto comum de APIs em uma ampla variedade de dispositivos XR.
Recursos
O Android XR oferece suporte a recursos que permitem criar apps que aproveitam ao máximo as funcionalidades exclusivas dos dispositivos XR usando o OpenXR. Esses recursos incluem o seguinte:
- Rastreáveis
- Compatível com detecção de planos, que é a capacidade de identificar e
rastrear superfícies planas no ambiente, permitindo a colocação de
objetos virtuais em relação ao mundo real e âncoras, que são
pontos de referência virtuais que podem ser anexados a objetos ou
locais do mundo real, garantindo que o conteúdo virtual permaneça posicionado e
orientado com precisão mesmo quando o usuário se move.
- Tiro de laser
- Uma técnica usada para determinar o ponto de interseção entre um raio virtual e objetos na cena, facilitando interações como selecionar e manipular elementos virtuais.
- Persistência de âncora
- A capacidade de salvar e restaurar âncoras em várias
sessões, permitindo o posicionamento persistente e consistente de conteúdo
virtual no ambiente.
- Rastreamento de objetos
- A capacidade de rastrear mouse, teclado e outros objetos no mundo real.
- Rastreamento de QR code
- A capacidade de rastrear QR codes no ambiente físico e decodificar
os dados deles.
- Texturas de profundidade
- A geração de mapas de profundidade que fornecem informações sobre a distância entre a câmera e os objetos na cena, permitindo efeitos de oclusão e interação mais realistas.
- Transparente
- A capacidade de misturar filmagens de câmeras do mundo real com conteúdo virtual, criando uma experiência de realidade mista que combina perfeitamente os mundos físico e digital.
- Malha de cena
- A capacidade de adquirir uma malha 3D do ambiente, que pode ser usada para física, oclusão e outras interações com reconhecimento do mundo.
- Passagem da camada de composição
- Permite um corte de camada de composição de passagem de polígonos, que pode ser usado para trazer objetos do mundo real para uma cena.
- Rastreamento de rostos
- A capacidade de rastrear os recursos do rosto do usuário, permitindo a criação de avatares e personagens virtuais mais realistas e expressivos.
- Rastreamento ocular
- Fornece a posição e a orientação do olho do usuário, que
foi projetada para tornar a postura dos olhos dos avatares mais realista.
- Rastreamento de mãos
- A capacidade de rastrear a posição e o movimento das mãos do usuário.
- Malha da mão
- Fornece uma representação precisa das mãos do usuário como uma malha de baixo
polígono. Otimizado para entrega de plataforma para aplicativo, garantindo o melhor desempenho possível. Essa é uma alternativa a outras
extensões que usam uma postura de vinculação e pesos de combinação.
- Estimativa de luz
- Usado para modelos de iluminação que correspondem às condições de iluminação do mundo real do usuário.
O Android XR também é compatível com os seguintes dispositivos de entrada.
- Interação com as mãos
- O reconhecimento de gestos específicos com as mãos, como
pinçar, deslizar e apontar, permitindo que os usuários interajam com objetos
virtuais usando gestos e movimentos das mãos.
- Interação de olhar
- A capacidade de rastrear os movimentos dos olhos do usuário,
permitindo que ele selecione e interaja com objetos virtuais usando o olhar.
- Controles de movimento 6DoF
- A capacidade de rastrear a posição e o movimento dos controladores, além de vinculações de botões e botões direcionais para acionar ações ou eventos de passar o cursor no aplicativo.
- Interação com o mouse
- A capacidade de os usuários interagirem com objetos usando um
ponteiro do mouse em um espaço 3D
O Android XR é compatível com os seguintes recursos relacionados à performance.
- Foveação com acompanhamento ocular
- Permite que um app renderize conteúdo de resolução mais alta apenas
no ponto focal dos olhos.
- Distorção espacial
- Usa vetores de velocidade e informações de textura de profundidade para gerar frames intermediários que aumentam a taxa de frames necessária para manter os usuários imersos nas experiências.
- Métricas de desempenho
- Fornece métricas de desempenho do Android XR durante a execução do dispositivo XR, compositor e aplicativo XR atuais. Isso inclui tempo de frame da CPU, tempo de frame da GPU, uso da GPU, frequência da CPU, frames por segundo e muito mais.
Consulte a Visão geral dos recursos do OpenXR para uma lista completa de recursos e extensões compatíveis.
Mecanismos compatíveis
Unity
O suporte do Android XR ao Unity, criado com base no OpenXR, permite que os desenvolvedores criem
experiências usando o Unity 6. Saiba mais sobre como criar apps de realidade estendida com o Unity na
visão geral do Unity.
OpenXR™ e o logotipo OpenXR são marcas registradas de propriedade da Khronos Group Inc. e estão registradas como marcas comerciais na China, na União Europeia, no Japão e no Reino Unido.
O conteúdo e os exemplos de código nesta página estão sujeitos às licenças descritas na Licença de conteúdo. Java e OpenJDK são marcas registradas da Oracle e/ou suas afiliadas.
Última atualização 2025-07-30 UTC.
[[["Fácil de entender","easyToUnderstand","thumb-up"],["Meu problema foi resolvido","solvedMyProblem","thumb-up"],["Outro","otherUp","thumb-up"]],[["Não contém as informações de que eu preciso","missingTheInformationINeed","thumb-down"],["Muito complicado / etapas demais","tooComplicatedTooManySteps","thumb-down"],["Desatualizado","outOfDate","thumb-down"],["Problema na tradução","translationIssue","thumb-down"],["Problema com as amostras / o código","samplesCodeIssue","thumb-down"],["Outro","otherDown","thumb-down"]],["Última atualização 2025-07-30 UTC."],[],[],null,["# Develop with OpenXR\n\nAndroid XR supports apps built with [OpenXR](https://www.khronos.org/openxr/) through its support\nfor the [OpenXR 1.1 specification and select vendor extensions](https://registry.khronos.org/OpenXR/specs/1.1/html/xrspec.html).\nOpenXR is an open standard that lets you create immersive and interactive\nexperiences using a common set of APIs across a wide range of XR devices.\n\nFeatures\n--------\n\nAndroid XR supports features that allow you to build apps that take full\nadvantage of the unique capabilities of XR devices, using OpenXR. These features\ninclude the following.\n\nTrackables\n: Supports *plane detection* , which is the ability to identify and\n track flat surfaces within the environment, enabling the placement of\n virtual objects in relation to the real world and *Anchors* which are\n virtual points of reference that can be attached to real-world objects or\n locations, ensuring that virtual content remains accurately positioned and\n oriented even as the user moves around.\n\nRaycasting\n: A technique used to determine the intersection point between a\n virtual ray and objects in the scene, facilitating interactions such as\n selecting and manipulating virtual elements.\n\nAnchor persistence\n: The capability to save and restore anchors across multiple\n sessions, allowing for persistent and consistent placement of virtual\n content within the environment.\n\nObject tracking\n: The ability to track mouse, keyboard and other objects in the\n real-world.\n\nQR Code tracking\n: The ability to track QR Codes in the physical environment and decode\n their data.\n\nDepth textures\n: The generation of depth maps that provide information about the\n distance between the camera and objects in the scene, enabling more\n realistic occlusion and interaction effects.\n\nPassthrough\n: The ability to blend real-world camera footage with virtual\n content, creating a mixed reality experience that seamlessly combines the\n physical and digital worlds.\n\nScene meshing\n: The ability to acquire a 3D mesh of the environment, which can be\n used for physics, occlusion, and other world-aware interactions.\n\nComposition layer passthrough\n: Allows for a polygon passthrough composition\n layer cutout, can be used for bringing real world objects into a scene.\n\nFace tracking\n: The ability to track the features of the user's face, enabling\n the creation of more realistic and expressive avatars and virtual\n characters.\n\nEye tracking\n: Provides position and orientation of the user's eye, which is\n designed to make eye pose for avatars more realistic.\n\nHand tracking\n: The ability to track the position and movement of the user's hands.\n\nHand mesh\n: Provides an accurate representation of the user's hands as a low\n poly mesh. Optimized for platform-to-application delivery to make sure you\n get the best performance possible. This is an alternative to other\n extensions which use a bind pose and blend weights.\n\nLight estimation\n: Used for lighting models to match the user's real world lighting conditions.\n\nSupported input devices\n-----------------------\n\nAndroid XR also supports the following input devices.\n\nHand Interaction\n: The recognition of specific hand gestures, such as\n pinching, swiping, and pointing, enabling the users to interact with virtual\n objects using gestures and hand movements.\n\nEye Gaze Interaction\n: The ability to track the user's eye movements,\n allowing them to select and interact with virtual objects using their gaze.\n\n6DoF Motion Controllers\n: The ability to track the controllers position and\n movement along with Dpad and button bindings for triggering actions, or\n hover events within the application.\n\nMouse Interaction\n: The ability for users to interact with objects through a\n mouse pointer in 3D space\n\nSupported performance features\n------------------------------\n\nAndroid XR supports the following performance-related features.\n\nEye-tracked foveation\n: Allows an app to render higher resolution content only\n at the eyes focal point.\n\nSpace warp\n: Uses velocity vectors and depth texture information to\n generate tween frames which effectively boosts the framerate required to\n keep your users immersed in your experiences\n\nPerformance metrics\n: Provides Android XR performance metrics at runtime of\n the current XR device, compositor, and XR application. This includes cpu\n frametime, gpu frame time, gpu utilization, cpu frequency, frames per second\n and [more](/develop/xr/openxr/extensions/XR_ANDROID_performance_metrics).\n\nSee the [OpenXR Feature Overview](/develop/xr/openxr/extensions) for a full list of supported features and\nextensions.\n\nSupported engines\n-----------------\n\n| **Note:** The [Android XR emulator](/develop/xr/jetpack-xr-sdk/studio-tools#android-xr) is not supported for Unity or OpenXR apps.\n\nUnity\n-----\n\nAndroid XR's Unity support, built on top of OpenXR, allows developers to create\nexperiences using Unity 6. Learn more about building XR apps with Unity in the\n[Unity overview](/develop/xr/unity).\n\n*** ** * ** ***\n\nOpenXR™ and the OpenXR logo are trademarks owned\nby The Khronos Group Inc. and are registered as a trademark in China,\nthe European Union, Japan and the United Kingdom."]]