Das Jetpack XR SDK enthält alle Tools und Bibliotheken, die Sie zum Erstellen immersiver und Augmented-Reality-Erlebnisse für Android XR-Geräte benötigen.
Vollständig immersive Erlebnisse schaffen
Richten Sie Ihre Anzeigen auf spezielle High-Fidelity-Geräte wie XR‑Headsets und kabelgebundene XR‑Datenbrillen aus. Verwenden Sie moderne Android-Entwicklungstools wie Kotlin und Compose sowie Tools der vorherigen Generation wie Java und Views. Sie können Ihre Benutzeroberfläche räumlich gestalten, 3D-Modelle laden und rendern und die reale Welt semantisch erfassen.
Wenn Sie bereits eine App für Mobilgeräte oder große Displays auf Android haben, eröffnet das Jetpack XR-SDK Ihrer App eine neue Dimension, indem vorhandene Layouts räumlich dargestellt und Ihre Erlebnisse mit 3D-Modellen und immersiven Umgebungen verbessert werden. In unseren Qualitätsrichtlinien finden Sie Empfehlungen zur räumlichen Gestaltung Ihrer bestehenden Android-App.
Erweiterte und hilfreiche Funktionen entwickeln
Leichte und stilvolle KI-Brillen Verwenden Sie moderne Android-Entwicklungstools wie Kotlin und Jetpack Compose Glimmer. Verwenden Sie APIs, die die Übertragung von Apps vom Smartphone auf eine KI-Brille ermöglichen.
Jetpack-Bibliotheken verwenden
Die Jetpack XR SDK-Bibliotheken bieten ein umfassendes Toolkit zum Erstellen von immersiven Erlebnissen, leichten Augmented-Reality-Erlebnissen und allem dazwischen. Die folgenden Bibliotheken sind Teil des Jetpack XR SDK:
- Jetpack Compose für XR: Räumliche UI-Layouts deklarativ erstellen, die die räumlichen Funktionen von Android XR nutzen.
- Material Design für XR: Erstellen Sie Apps mit Material-Komponenten und ‑Layouts, die sich an XR anpassen.
- Jetpack SceneCore: Erstellen und bearbeiten Sie den Android XR-Szenengraphen mit 3D-Inhalten.
- ARCore für Jetpack XR: Digitale Inhalte mit Wahrnehmungsfunktionen in die reale Welt einbinden.
- Jetpack Compose Glimmer: Ein UI-Toolkit zum Erstellen von Augmented-Reality-Erlebnissen für Android XR, optimiert für Smartglasses mit Display.
- Jetpack Projected: APIs, die die Übertragung von Apps vom Smartphone auf eine KI-Brille ermöglichen.
API-Entwicklung während der Entwicklervorschau
Die Jetpack XR SDK-Bibliotheken sind Teil der Android XR-Entwicklervorschau und diese APIs werden noch entwickelt. Bekannte Probleme finden Sie in den Versionshinweisen zur Bibliothek:
- Versionshinweise zu Jetpack Compose für XR
- Versionshinweise zu ARCore for Jetpack XR
- Versionshinweise zu Jetpack SceneCore
- Versionshinweise zur XR-Laufzeit
- Versionshinweise zu Jetpack Compose Glimmer
- Prognostizierte Versionshinweise zu Jetpack
Wenn ein Problem auftritt, das nicht in einer dieser Listen aufgeführt ist, melden Sie den Fehler bitte.
Jetpack Compose für XR
XR‑Geräte, für die der Leitfaden gilt: XR‑Headsets, kabelgebundene XR‑Datenbrillen
Mit Jetpack Compose für XR können Sie vertraute Compose-Konzepte wie Zeilen und Spalten verwenden, um räumliche UI-Layouts in XR zu erstellen. Das gilt sowohl, wenn Sie eine vorhandene 2D-App in XR portieren, als auch, wenn Sie eine neue XR-App von Grund auf neu erstellen.
Diese Bibliothek bietet Subspace-Composable-Funktionen wie räumliche Bereiche und Orbiters, mit denen Sie Ihre vorhandene 2D-Benutzeroberfläche, die auf Compose oder Views basiert, in einem räumlichen Layout platzieren können.
Eine ausführliche Anleitung finden Sie unter Benutzeroberfläche mit Jetpack Compose für XR entwickeln.
Mit Compose for XR wird die zusammensetzbare SceneCoreEntity-Unterraum eingeführt, mit der Sie Entitäten wie 3D-Modelle relativ zur Benutzeroberfläche platzieren können.
Informationen zum Räumlich-Machen Ihrer bestehenden Android-App und detailliertere Informationen finden Sie in der API-Referenz.
Material Design für XR
XR‑Geräte, für die der Leitfaden gilt: XR‑Headsets, kabelgebundene XR‑Datenbrillen
Material Design bietet Komponenten und Layouts, die sich für XR anpassen. Wenn Sie adaptive Layouts verwenden. Weitere Informationen zur Implementierung von Material Design für XR
Jetpack SceneCore
XR‑Geräte, für die der Leitfaden gilt: XR‑Headsets, kabelgebundene XR‑Datenbrillen
Mit der Jetpack SceneCore-Bibliothek können Sie 3D-Inhalte, die durch Entitäten definiert werden, relativ zueinander und zu Ihrer Umgebung platzieren und anordnen. Mit SceneCore haben Sie folgende Möglichkeiten:
- Räumliche Umgebungen festlegen
- Instanzen einer
PanelEntityerstellen - 3D-Modelle platzieren und animieren
- Spatial-Audio-Quellen angeben
- Komponenten zu Entitäten hinzufügen, damit sie verschiebbar und in der Größe anpassbar sind und in der realen Welt verankert werden können
Die Jetpack SceneCore-Bibliothek bietet auch Unterstützung für die räumliche Darstellung von Anwendungen, die mit Views erstellt wurden. Weitere Informationen finden Sie in unserem Leitfaden zum Arbeiten mit Ansichten.
Weitere Informationen finden Sie in der API-Referenz.
ARCore für Jetpack XR
XR‑Geräte, für die der Leitfaden gilt: XR‑Headsets, kabelgebundene XR‑Datenbrillen, KI‑Brillen
Die ARCore for Jetpack XR-Bibliothek ist von der bestehenden ARCore-Bibliothek inspiriert und bietet Funktionen zum Einblenden digitaler Inhalte in die reale Welt. Diese Bibliothek umfasst Funktionen für die Bewegungserkennung, persistente Anker, Treffertests und die Erkennung von Ebenen mit semantischer Kennzeichnung (z. B. Boden, Wände und Tischplatten). Diese Bibliothek nutzt den zugrunde liegenden Wahrnehmungs-Stack, der von OpenXR unterstützt wird. Dadurch wird die Kompatibilität mit einer Vielzahl von Geräten sichergestellt und Apps sind zukunftssicher.
Jetpack Compose-Glimmer
XR‑Geräte, für die der Leitfaden gilt: KI‑Brillen
Jetpack Compose Glimmer ist ein UI-Toolkit zum Erstellen von Augmented XR-Erlebnissen für Android, das für Smartglasses mit Display optimiert ist. Entwickle schöne, minimalistische und komfortable Benutzeroberflächen für Geräte, die den ganzen Tag getragen werden.
- Für schnelles Erfassen und gute Lesbarkeit entwickelt: Im Gegensatz zu Smartphones ist die primäre Benutzeroberfläche ein optisch durchsichtiges Display – sie ist transparent. Jetpack Compose Glimmer bietet brillenspezifische Designs, vereinfachte Farbpaletten und Typografie, damit Ihre Inhalte leicht lesbar, schnell zu verarbeiten und nie ablenkend sind.
- Für Wearable-spezifische Interaktionen optimiert: Wir haben die Interaktionsmodelle für die Verwendung von Brillen optimiert. Jetpack Compose Glimmer-Komponenten bieten deutliche Fokusstatus, z. B. optimierte Umrisse anstelle von störenden Rippeleffekten. Sie sind für die Verarbeitung gängiger physischer Eingaben wie Tippen, Wischen auf dem Rahmen und natürlich Sprache konzipiert.
- Vertraute deklarative UI-Muster verwenden: Da Jetpack Compose Glimmer vollständig auf Jetpack Compose basiert, können Sie alles verwenden, was Sie bereits über die deklarative UI-Erstellung in Android wissen. Wir bieten eine vollständige Reihe von vorgefertigten Composable-Funktionen, z. B. Text, Icon, Button und spezielle Komponenten wie TitleChip, die alle für die Umgebung der Brille optimiert sind.
Jetpack Projected
XR‑Geräte, für die der Leitfaden gilt: KI‑Brillen
Wenn Sie Apps für KI-Brillen entwickeln, wird Ihre App auf einem Hostgerät wie einem Android-Smartphone ausgeführt, das die XR-Funktionen Ihrer App projiziert. Mit Jetpack Projected können diese Android-Hostgeräte mit KI-Brillen kommunizieren, wenn die Hostgeräte XR-Projektionsfunktionen haben.
- Zugriff auf die Hardware des Geräts mit Projektionsfläche: Ein Gerätekontext, der mit dem Gerät mit Projektionsfläche (KI-Brille) verknüpft ist. Dieser projizierte Kontext bietet Zugriff auf die Hardware des Geräts mit der Projektionsfläche, z. B. die Kamera. Spezielle Aktivitäten, die speziell für die Anzeige auf KI-Brillen erstellt wurden, funktionieren bereits als projizierter Kontext. Wenn ein anderer Teil Ihrer App (z. B. eine Telefonaktivität oder ein Dienst) auf die Hardware der KI-Brille zugreifen muss, kann er einen projizierten Kontext abrufen.
- Berechtigungsanfragen vereinfachen: KI-Brillen folgen dem Standardberechtigungsmodell von Android. Brillenspezifische Berechtigungen müssen zur Laufzeit angefordert werden, bevor Ihre App auf Gerätehardware wie die Kamera zugreifen kann. Der Berechtigungsassistent optimiert diese Mechanismen für Berechtigungsanfragen sowohl für Smartphones als auch für KI-Brillen, um eine einheitliche Anfrage zu ermöglichen.
- Geräte- und Displayfunktionen prüfen: Prüfen Sie, ob das projizierte Gerät ein Display hat und wie der Status des Displays ist, um Bilder zu präsentieren. Passen Sie Ihre App an die Funktionen des Geräts an. Wenn das Gerät beispielsweise kein Display hat oder das Display ausgeschaltet ist, sollten Sie mehr Audio-Kontext bereitstellen.
- Auf Kameraaktionen der App zugreifen: Ihre App kann auf Kameraaktionen des Nutzers zugreifen, z. B. um die Kamera in einer Videostreaming-App ein- oder auszuschalten.
OpenXR™ und das OpenXR-Logo sind Marken von The Khronos Group Inc. und sind in China, der Europäischen Union, Japan und dem Vereinigten Königreich als Marke eingetragen.