L'SDK Android XR è ora disponibile in Anteprima per gli sviluppatori. Vorremmo sapere cosa ne pensi. Per contattarci, visita la nostra
pagina di assistenza.
Sviluppa con OpenXR
Mantieni tutto organizzato con le raccolte
Salva e classifica i contenuti in base alle tue preferenze.
Android XR supporta le app create con OpenXR tramite il supporto
della specifica OpenXR 1.1 e di estensioni di fornitori selezionati.
OpenXR è uno standard aperto che ti consente di creare esperienze immersive e interattive
utilizzando un insieme comune di API su un'ampia gamma di dispositivi XR.
Funzionalità
Android XR supporta funzionalità che ti consentono di creare app che sfruttano appieno le funzionalità uniche dei dispositivi XR utilizzando OpenXR. Queste funzionalità
includono quanto segue.
- Elementi tracciabili
- Supporta il rilevamento dei piani, ovvero la capacità di identificare e
tracciare superfici piane all'interno dell'ambiente, consentendo il posizionamento di
oggetti virtuali in relazione al mondo reale e gli ancore, ovvero
punti di riferimento virtuali che possono essere collegati a oggetti o
luoghi del mondo reale, garantendo che i contenuti virtuali rimangano posizionati e
orientati con precisione anche quando l'utente si sposta.
- Raycasting
- Una tecnica utilizzata per determinare il punto di intersezione tra un raggio virtuale e gli oggetti nella scena, facilitando interazioni come la selezione e la manipolazione di elementi virtuali.
- Persistenza degli ancoraggi
- La possibilità di salvare e ripristinare gli ancoraggi in più sessioni, consentendo il posizionamento persistente e coerente di contenuti virtuali all'interno dell'ambiente.
- Monitoraggio oggetti
- La possibilità di tracciare il mouse, la tastiera e altri oggetti nel
mondo reale.
- Monitoraggio dei codici QR
- La possibilità di monitorare i codici QR nell'ambiente fisico e decodificare
i relativi dati.
- Texture di profondità
- La generazione di mappe di profondità che forniscono informazioni sulla
distanza tra la videocamera e gli oggetti nella scena, consentendo effetti
di occlusione e interazione più realistici.
- Passthrough
- La possibilità di combinare filmati della videocamera del mondo reale con contenuti virtuali, creando un'esperienza di realtà mista che combina perfettamente il mondo fisico e quello digitale.
- Mesh della scena
- La possibilità di acquisire una mesh 3D dell'ambiente, che può essere
utilizzata per la fisica, l'occlusione e altre interazioni consapevoli del mondo.
- Trasferimento del livello di composizione
- Consente un ritaglio del livello di composizione pass-through del poligono, può essere utilizzato per portare oggetti del mondo reale in una scena.
- Rilevamento dei volti
- La possibilità di tracciare i tratti del viso dell'utente, consentendo
la creazione di avatar e personaggi virtuali più realistici ed espressivi.
- Tracciamento oculare
- Fornisce la posizione e l'orientamento dell'occhio dell'utente, che è
progettato per rendere più realistica la posa degli occhi per gli avatar.
- Tracciamento delle mani
- La possibilità di monitorare la posizione e il movimento delle mani dell'utente.
- Maglia a mano
- Fornisce una rappresentazione accurata delle mani dell'utente come mesh a bassa
poligonale. Ottimizzato per la distribuzione dalla piattaforma all'applicazione per garantire le migliori prestazioni possibili. Si tratta di un'alternativa ad altre
estensioni che utilizzano una posa di legame e pesi di fusione.
- Stima della luce
- Utilizzato per i modelli di illuminazione in modo che corrispondano alle condizioni di illuminazione reali dell'utente.
Android XR supporta anche i seguenti dispositivi di input.
- Interazione con le mani
- Il riconoscimento di gesti specifici della mano, come
pizzicare, scorrere e puntare, che consente agli utenti di interagire con oggetti virtuali
utilizzando gesti e movimenti della mano.
- Interazione con lo sguardo
- La possibilità di tracciare i movimenti oculari dell'utente,
consentendogli di selezionare e interagire con gli oggetti virtuali usando lo sguardo.
- Motion controller 6DoF
- La possibilità di monitorare la posizione e
il movimento dei controller, nonché le associazioni di D-pad e pulsanti per attivare azioni o
eventi di passaggio del mouse all'interno dell'applicazione.
- Interazione con il mouse
- La possibilità per gli utenti di interagire con gli oggetti tramite un
puntatore del mouse nello spazio 3D
Android XR supporta le seguenti funzionalità correlate alle prestazioni.
- Foveazione con tracciamento oculare
- Consente a un'app di eseguire il rendering di contenuti a risoluzione più elevata solo
nel punto focale degli occhi.
- Deformazione spaziale
- Utilizza i vettori di velocità e le informazioni sulla texture di profondità per
generare frame intermedi che aumentano efficacemente il framerate necessario per
mantenere gli utenti immersi nelle tue esperienze
- Metriche sul rendimento
- Fornisce metriche sul rendimento di Android XR in fase di runtime
del dispositivo XR, del compositor e dell'applicazione XR correnti. Sono inclusi il tempo frame della CPU, il tempo frame della GPU, l'utilizzo della GPU, la frequenza della CPU, i frame al secondo e altro.
Consulta la panoramica delle funzionalità OpenXR per un elenco completo delle funzionalità e delle estensioni supportate.
Motori supportati
Unity
Il supporto di Unity di Android XR, basato su OpenXR, consente agli sviluppatori di creare
esperienze utilizzando Unity 6. Scopri di più sulla creazione di app XR con Unity nella panoramica di Unity.
OpenXR™ e il logo OpenXR sono marchi di proprietà
di The Khronos Group Inc. e sono registrati come marchi in Cina,
nell'Unione Europea, in Giappone e nel Regno Unito.
I campioni di contenuti e codice in questa pagina sono soggetti alle licenze descritte nella Licenza per i contenuti. Java e OpenJDK sono marchi o marchi registrati di Oracle e/o delle sue società consociate.
Ultimo aggiornamento 2025-07-30 UTC.
[[["Facile da capire","easyToUnderstand","thumb-up"],["Il problema è stato risolto","solvedMyProblem","thumb-up"],["Altra","otherUp","thumb-up"]],[["Mancano le informazioni di cui ho bisogno","missingTheInformationINeed","thumb-down"],["Troppo complicato/troppi passaggi","tooComplicatedTooManySteps","thumb-down"],["Obsoleti","outOfDate","thumb-down"],["Problema di traduzione","translationIssue","thumb-down"],["Problema relativo a esempi/codice","samplesCodeIssue","thumb-down"],["Altra","otherDown","thumb-down"]],["Ultimo aggiornamento 2025-07-30 UTC."],[],[],null,["# Develop with OpenXR\n\nAndroid XR supports apps built with [OpenXR](https://www.khronos.org/openxr/) through its support\nfor the [OpenXR 1.1 specification and select vendor extensions](https://registry.khronos.org/OpenXR/specs/1.1/html/xrspec.html).\nOpenXR is an open standard that lets you create immersive and interactive\nexperiences using a common set of APIs across a wide range of XR devices.\n\nFeatures\n--------\n\nAndroid XR supports features that allow you to build apps that take full\nadvantage of the unique capabilities of XR devices, using OpenXR. These features\ninclude the following.\n\nTrackables\n: Supports *plane detection* , which is the ability to identify and\n track flat surfaces within the environment, enabling the placement of\n virtual objects in relation to the real world and *Anchors* which are\n virtual points of reference that can be attached to real-world objects or\n locations, ensuring that virtual content remains accurately positioned and\n oriented even as the user moves around.\n\nRaycasting\n: A technique used to determine the intersection point between a\n virtual ray and objects in the scene, facilitating interactions such as\n selecting and manipulating virtual elements.\n\nAnchor persistence\n: The capability to save and restore anchors across multiple\n sessions, allowing for persistent and consistent placement of virtual\n content within the environment.\n\nObject tracking\n: The ability to track mouse, keyboard and other objects in the\n real-world.\n\nQR Code tracking\n: The ability to track QR Codes in the physical environment and decode\n their data.\n\nDepth textures\n: The generation of depth maps that provide information about the\n distance between the camera and objects in the scene, enabling more\n realistic occlusion and interaction effects.\n\nPassthrough\n: The ability to blend real-world camera footage with virtual\n content, creating a mixed reality experience that seamlessly combines the\n physical and digital worlds.\n\nScene meshing\n: The ability to acquire a 3D mesh of the environment, which can be\n used for physics, occlusion, and other world-aware interactions.\n\nComposition layer passthrough\n: Allows for a polygon passthrough composition\n layer cutout, can be used for bringing real world objects into a scene.\n\nFace tracking\n: The ability to track the features of the user's face, enabling\n the creation of more realistic and expressive avatars and virtual\n characters.\n\nEye tracking\n: Provides position and orientation of the user's eye, which is\n designed to make eye pose for avatars more realistic.\n\nHand tracking\n: The ability to track the position and movement of the user's hands.\n\nHand mesh\n: Provides an accurate representation of the user's hands as a low\n poly mesh. Optimized for platform-to-application delivery to make sure you\n get the best performance possible. This is an alternative to other\n extensions which use a bind pose and blend weights.\n\nLight estimation\n: Used for lighting models to match the user's real world lighting conditions.\n\nSupported input devices\n-----------------------\n\nAndroid XR also supports the following input devices.\n\nHand Interaction\n: The recognition of specific hand gestures, such as\n pinching, swiping, and pointing, enabling the users to interact with virtual\n objects using gestures and hand movements.\n\nEye Gaze Interaction\n: The ability to track the user's eye movements,\n allowing them to select and interact with virtual objects using their gaze.\n\n6DoF Motion Controllers\n: The ability to track the controllers position and\n movement along with Dpad and button bindings for triggering actions, or\n hover events within the application.\n\nMouse Interaction\n: The ability for users to interact with objects through a\n mouse pointer in 3D space\n\nSupported performance features\n------------------------------\n\nAndroid XR supports the following performance-related features.\n\nEye-tracked foveation\n: Allows an app to render higher resolution content only\n at the eyes focal point.\n\nSpace warp\n: Uses velocity vectors and depth texture information to\n generate tween frames which effectively boosts the framerate required to\n keep your users immersed in your experiences\n\nPerformance metrics\n: Provides Android XR performance metrics at runtime of\n the current XR device, compositor, and XR application. This includes cpu\n frametime, gpu frame time, gpu utilization, cpu frequency, frames per second\n and [more](/develop/xr/openxr/extensions/XR_ANDROID_performance_metrics).\n\nSee the [OpenXR Feature Overview](/develop/xr/openxr/extensions) for a full list of supported features and\nextensions.\n\nSupported engines\n-----------------\n\n| **Note:** The [Android XR emulator](/develop/xr/jetpack-xr-sdk/studio-tools#android-xr) is not supported for Unity or OpenXR apps.\n\nUnity\n-----\n\nAndroid XR's Unity support, built on top of OpenXR, allows developers to create\nexperiences using Unity 6. Learn more about building XR apps with Unity in the\n[Unity overview](/develop/xr/unity).\n\n*** ** * ** ***\n\nOpenXR™ and the OpenXR logo are trademarks owned\nby The Khronos Group Inc. and are registered as a trademark in China,\nthe European Union, Japan and the United Kingdom."]]