Das Android XR SDK ist jetzt in der Entwicklervorschau verfügbar. Wir freuen uns über Ihr Feedback!
Auf unserer Supportseite können Sie sich an uns wenden.
Mit OpenXR entwickeln
Mit Sammlungen den Überblick behalten
Sie können Inhalte basierend auf Ihren Einstellungen speichern und kategorisieren.
Android XR unterstützt Apps, die mit OpenXR entwickelt wurden, da es die OpenXR 1.1-Spezifikation und ausgewählte Anbietererweiterungen unterstützt.
OpenXR ist ein offener Standard, mit dem Sie immersive und interaktive Erlebnisse mit einer gemeinsamen Reihe von APIs auf einer Vielzahl von XR-Geräten erstellen können.
Funktionen
Android XR unterstützt Funktionen, mit denen Sie Apps entwickeln können, die die einzigartigen Funktionen von XR-Geräten mithilfe von OpenXR voll ausschöpfen. Dazu gehören:
- Trackables
- Unterstützt die Ebenenerkennung, mit der flache Oberflächen in der Umgebung erkannt und verfolgt werden können. So lassen sich virtuelle Objekte in Bezug auf die reale Welt platzieren. Außerdem werden Anker unterstützt, also virtuelle Referenzpunkte, die an realen Objekten oder Orten angebracht werden können. So bleibt der virtuelle Inhalt auch dann genau positioniert und ausgerichtet, wenn sich der Nutzer bewegt.
- Raycasting
- Eine Technik, mit der der Schnittpunkt zwischen einem virtuellen Strahl und Objekten in der Szene bestimmt wird. Dies ermöglicht Interaktionen wie das Auswählen und Bearbeiten virtueller Elemente.
- Ankerpersistenz
- Die Möglichkeit, Anker über mehrere Sitzungen hinweg zu speichern und wiederherzustellen, ermöglicht eine dauerhafte und konsistente Platzierung virtueller Inhalte in der Umgebung.
- Objekt-Tracking
- Maus, Tastatur und andere Objekte in der realen Welt verfolgen.
- QR-Code-Tracking
- QR‑Codes in der physischen Umgebung erkennen und ihre Daten decodieren.
- Tiefentexturen
- Generierung von Tiefenkarten, die Informationen zum Abstand zwischen der Kamera und Objekten in der Szene liefern und so realistischere Verdeckungs- und Interaktionseffekte ermöglichen.
- Passthrough
- Die Möglichkeit, reale Kameraaufnahmen mit virtuellen Inhalten zu kombinieren und so ein Mixed Reality-Erlebnis zu schaffen, das die physische und die digitale Welt nahtlos miteinander verbindet.
- Szenen-Meshing
- Die Möglichkeit, ein 3D-Mesh der Umgebung zu erstellen, das für Physik, Verdeckung und andere weltbezogene Interaktionen verwendet werden kann.
- Passthrough für Kompositionsebene
- Ermöglicht das Ausschneiden von Polygonen in der Kompositionsebene, um reale Objekte in eine Szene einzufügen.
- Gesichtstracking
- Die Möglichkeit, die Gesichtszüge des Nutzers zu erfassen, um realistischere und ausdrucksstärkere Avatare und virtuelle Charaktere zu erstellen.
- Eye-Tracking
- Liefert die Position und Ausrichtung des Auges des Nutzers, um die Augenposition für Avatare realistischer zu gestalten.
- Hand tracking
- Die Möglichkeit, die Position und Bewegung der Hände des Nutzers zu erfassen.
- Hand-Mesh
- Stellt die Hände des Nutzers als Low-Poly-Mesh dar. Für die Übermittlung von der Plattform zur Anwendung optimiert, um die bestmögliche Leistung zu erzielen. Das ist eine Alternative zu anderen Erweiterungen, die eine Bind-Pose und Blend-Gewichtungen verwenden.
- Lichtschätzung
- Wird für Beleuchtungsmodelle verwendet, um die Beleuchtungsbedingungen in der realen Welt des Nutzers zu berücksichtigen.
Android XR unterstützt auch die folgenden Eingabegeräte.
- Handinteraktion
- Die Erkennung bestimmter Handgesten wie Zusammenziehen, Wischen und Zeigen, die es Nutzern ermöglichen, mit virtuellen Objekten durch Gesten und Handbewegungen zu interagieren.
- Blicksteuerung
- Die Möglichkeit, die Augenbewegungen des Nutzers zu verfolgen, sodass er virtuelle Objekte mit seinem Blick auswählen und mit ihnen interagieren kann.
- 6DoF‑Bewegungscontroller
- Die Möglichkeit, die Position und Bewegung der Controller sowie die D-Pad- und Schaltflächenzuweisungen zum Auslösen von Aktionen oder Hover-Ereignissen in der Anwendung zu verfolgen.
- Mausinteraktion
- Die Möglichkeit für Nutzer, über einen Mauszeiger im 3D-Raum mit Objekten zu interagieren
Android XR unterstützt die folgenden leistungsbezogenen Funktionen.
- Foveation mit Eye-Tracking
- Ermöglicht einer App, Inhalte mit höherer Auflösung nur am Fokuspunkt der Augen zu rendern.
- Space Warp
- Verwendet Geschwindigkeitsvektoren und Informationen zur Tiefenstruktur, um Zwischenbilder zu generieren, wodurch die Framerate effektiv erhöht wird, die erforderlich ist, um Nutzer in Ihre Erlebnisse einzutauchen
- Leistungsmesswerte
- Stellt Android XR-Leistungsmesswerte zur Laufzeit des aktuellen XR-Geräts, Compositors und der XR-Anwendung bereit. Dazu gehören die CPU-Frame-Zeit, die GPU-Frame-Zeit, die GPU-Auslastung, die CPU-Frequenz, die Frames pro Sekunde und mehr.
Eine vollständige Liste der unterstützten Funktionen und Erweiterungen finden Sie unter OpenXR-Funktionsübersicht.
Unterstützte Engines
Unity
Die auf OpenXR basierende Unity-Unterstützung von Android XR ermöglicht es Entwicklern, mit Unity 6 Erlebnisse zu schaffen. Weitere Informationen zum Erstellen von XR-Apps mit Unity
OpenXR™ und das OpenXR-Logo sind Marken von The Khronos Group Inc. und sind in China, der Europäischen Union, Japan und dem Vereinigten Königreich als Marke eingetragen.
Alle Inhalte und Codebeispiele auf dieser Seite unterliegen den Lizenzen wie im Abschnitt Inhaltslizenz beschrieben. Java und OpenJDK sind Marken oder eingetragene Marken von Oracle und/oder seinen Tochtergesellschaften.
Zuletzt aktualisiert: 2025-07-30 (UTC).
[[["Leicht verständlich","easyToUnderstand","thumb-up"],["Mein Problem wurde gelöst","solvedMyProblem","thumb-up"],["Sonstiges","otherUp","thumb-up"]],[["Benötigte Informationen nicht gefunden","missingTheInformationINeed","thumb-down"],["Zu umständlich/zu viele Schritte","tooComplicatedTooManySteps","thumb-down"],["Nicht mehr aktuell","outOfDate","thumb-down"],["Problem mit der Übersetzung","translationIssue","thumb-down"],["Problem mit Beispielen/Code","samplesCodeIssue","thumb-down"],["Sonstiges","otherDown","thumb-down"]],["Zuletzt aktualisiert: 2025-07-30 (UTC)."],[],[],null,["# Develop with OpenXR\n\nAndroid XR supports apps built with [OpenXR](https://www.khronos.org/openxr/) through its support\nfor the [OpenXR 1.1 specification and select vendor extensions](https://registry.khronos.org/OpenXR/specs/1.1/html/xrspec.html).\nOpenXR is an open standard that lets you create immersive and interactive\nexperiences using a common set of APIs across a wide range of XR devices.\n\nFeatures\n--------\n\nAndroid XR supports features that allow you to build apps that take full\nadvantage of the unique capabilities of XR devices, using OpenXR. These features\ninclude the following.\n\nTrackables\n: Supports *plane detection* , which is the ability to identify and\n track flat surfaces within the environment, enabling the placement of\n virtual objects in relation to the real world and *Anchors* which are\n virtual points of reference that can be attached to real-world objects or\n locations, ensuring that virtual content remains accurately positioned and\n oriented even as the user moves around.\n\nRaycasting\n: A technique used to determine the intersection point between a\n virtual ray and objects in the scene, facilitating interactions such as\n selecting and manipulating virtual elements.\n\nAnchor persistence\n: The capability to save and restore anchors across multiple\n sessions, allowing for persistent and consistent placement of virtual\n content within the environment.\n\nObject tracking\n: The ability to track mouse, keyboard and other objects in the\n real-world.\n\nQR Code tracking\n: The ability to track QR Codes in the physical environment and decode\n their data.\n\nDepth textures\n: The generation of depth maps that provide information about the\n distance between the camera and objects in the scene, enabling more\n realistic occlusion and interaction effects.\n\nPassthrough\n: The ability to blend real-world camera footage with virtual\n content, creating a mixed reality experience that seamlessly combines the\n physical and digital worlds.\n\nScene meshing\n: The ability to acquire a 3D mesh of the environment, which can be\n used for physics, occlusion, and other world-aware interactions.\n\nComposition layer passthrough\n: Allows for a polygon passthrough composition\n layer cutout, can be used for bringing real world objects into a scene.\n\nFace tracking\n: The ability to track the features of the user's face, enabling\n the creation of more realistic and expressive avatars and virtual\n characters.\n\nEye tracking\n: Provides position and orientation of the user's eye, which is\n designed to make eye pose for avatars more realistic.\n\nHand tracking\n: The ability to track the position and movement of the user's hands.\n\nHand mesh\n: Provides an accurate representation of the user's hands as a low\n poly mesh. Optimized for platform-to-application delivery to make sure you\n get the best performance possible. This is an alternative to other\n extensions which use a bind pose and blend weights.\n\nLight estimation\n: Used for lighting models to match the user's real world lighting conditions.\n\nSupported input devices\n-----------------------\n\nAndroid XR also supports the following input devices.\n\nHand Interaction\n: The recognition of specific hand gestures, such as\n pinching, swiping, and pointing, enabling the users to interact with virtual\n objects using gestures and hand movements.\n\nEye Gaze Interaction\n: The ability to track the user's eye movements,\n allowing them to select and interact with virtual objects using their gaze.\n\n6DoF Motion Controllers\n: The ability to track the controllers position and\n movement along with Dpad and button bindings for triggering actions, or\n hover events within the application.\n\nMouse Interaction\n: The ability for users to interact with objects through a\n mouse pointer in 3D space\n\nSupported performance features\n------------------------------\n\nAndroid XR supports the following performance-related features.\n\nEye-tracked foveation\n: Allows an app to render higher resolution content only\n at the eyes focal point.\n\nSpace warp\n: Uses velocity vectors and depth texture information to\n generate tween frames which effectively boosts the framerate required to\n keep your users immersed in your experiences\n\nPerformance metrics\n: Provides Android XR performance metrics at runtime of\n the current XR device, compositor, and XR application. This includes cpu\n frametime, gpu frame time, gpu utilization, cpu frequency, frames per second\n and [more](/develop/xr/openxr/extensions/XR_ANDROID_performance_metrics).\n\nSee the [OpenXR Feature Overview](/develop/xr/openxr/extensions) for a full list of supported features and\nextensions.\n\nSupported engines\n-----------------\n\n| **Note:** The [Android XR emulator](/develop/xr/jetpack-xr-sdk/studio-tools#android-xr) is not supported for Unity or OpenXR apps.\n\nUnity\n-----\n\nAndroid XR's Unity support, built on top of OpenXR, allows developers to create\nexperiences using Unity 6. Learn more about building XR apps with Unity in the\n[Unity overview](/develop/xr/unity).\n\n*** ** * ** ***\n\nOpenXR™ and the OpenXR logo are trademarks owned\nby The Khronos Group Inc. and are registered as a trademark in China,\nthe European Union, Japan and the United Kingdom."]]