L'expérience des lunettes IA repose sur l'API du framework Activity Android
existante et inclut des concepts supplémentaires pour prendre en charge les aspects uniques des
lunettes IA. Contrairement aux casques XR qui exécutent un APK complet sur l'appareil, les lunettes IA utilisent une activité dédiée qui s'exécute dans l'application existante de votre téléphone. Cette activité est projetée de l'appareil hôte vers les lunettes IA.
Pour créer l'expérience des lunettes IA de votre application, étendez votre application téléphonique existante
en créant un nouveau Activity projeté pour les lunettes IA. Cette activité sert de point d'entrée de lancement principal pour votre application sur les lunettes IA. Cette approche simplifie le développement, car vous pouvez partager et réutiliser la logique métier entre vos expériences sur téléphone et sur lunettes IA.
Compatibilité des versions
Consultez les exigences de compatibilité du SDK Android pour le SDK Jetpack XR.
Dépendances
Ajoutez les dépendances de bibliothèque suivantes pour les lunettes IA :
Groovy
dependencies { implementation "androidx.xr.runtime:runtime:1.0.0-alpha11" implementation "androidx.xr.glimmer:glimmer:1.0.0-alpha08" implementation "androidx.xr.projected:projected:1.0.0-alpha05" implementation "androidx.xr.arcore:arcore:1.0.0-alpha11" }
Kotlin
dependencies { implementation("androidx.xr.runtime:runtime:1.0.0-alpha11") implementation("androidx.xr.glimmer:glimmer:1.0.0-alpha08") implementation("androidx.xr.projected:projected:1.0.0-alpha05") implementation("androidx.xr.arcore:arcore:1.0.0-alpha11") }
Déclarer votre activité dans le fichier manifeste de votre application
Comme pour les autres types d'activités, vous devez déclarer votre activité dans le fichier manifeste de votre application pour que le système puisse la voir et l'exécuter.
<application>
<activity
android:name="com.example.xr.projected.GlassesMainActivity"
android:exported="true"
android:requiredDisplayCategory="xr_projected"
android:label="Example AI Glasses activity">
<intent-filter>
<action android:name="android.intent.action.MAIN" />
</intent-filter>
</activity>
</application>
Points clés concernant le code
- Spécifie
xr_projectedpour l'attributandroid:requiredDisplayCategoryafin d'indiquer au système que cette activité doit utiliser un contexte projeté pour accéder au matériel d'un appareil connecté.
Créer votre activité
Ensuite, vous allez créer une petite activité qui peut afficher quelque chose sur les lunettes IA lorsque l'écran est allumé.
@OptIn(ExperimentalProjectedApi::class) class GlassesMainActivity : ComponentActivity() { private var displayController: ProjectedDisplayController? = null private var isVisualUiSupported by mutableStateOf(false) private var areVisualsOn by mutableStateOf(true) private var isPermissionDenied by mutableStateOf(false) // Register the permissions launcher using the ProjectedPermissionsResultContract. private val requestPermissionLauncher: ActivityResultLauncher<List<ProjectedPermissionsRequestParams>> = registerForActivityResult(ProjectedPermissionsResultContract()) { results -> if (results[Manifest.permission.CAMERA] == true) { isPermissionDenied = false initializeGlassesFeatures() } else { // Handle permission denial. isPermissionDenied = true } } override fun onCreate(savedInstanceState: Bundle?) { super.onCreate(savedInstanceState) lifecycle.addObserver(object : DefaultLifecycleObserver { override fun onDestroy(owner: LifecycleOwner) { displayController?.close() displayController = null } }) if (hasCameraPermission()) { initializeGlassesFeatures() } else { requestHardwarePermissions() } setContent { GlimmerTheme { HomeScreen( areVisualsOn = areVisualsOn, isVisualUiSupported = isVisualUiSupported, isPermissionDenied = isPermissionDenied, onRetryPermission = { requestHardwarePermissions() }, onClose = { finish() } ) } } } private fun initializeGlassesFeatures() { lifecycleScope.launch { // Check device capabilities val projectedDeviceController = ProjectedDeviceController.create(this@GlassesMainActivity) isVisualUiSupported = projectedDeviceController.capabilities.contains(CAPABILITY_VISUAL_UI) val controller = ProjectedDisplayController.create(this@GlassesMainActivity) displayController = controller val observer = GlassesLifecycleObserver( context = this@GlassesMainActivity, controller = controller, onVisualsChanged = { visualsOn -> areVisualsOn = visualsOn } ) lifecycle.addObserver(observer) } } private fun hasCameraPermission(): Boolean { return ContextCompat.checkSelfPermission(this, Manifest.permission.CAMERA) == PackageManager.PERMISSION_GRANTED } private fun requestHardwarePermissions() { val params = ProjectedPermissionsRequestParams( permissions = listOf(Manifest.permission.CAMERA), rationale = "Camera access is required to overlay digital content on your physical environment." ) requestPermissionLauncher.launch(listOf(params)) } }
Points clés concernant le code
- Accepte d'utiliser les API d'activation de la bibliothèque Jetpack Projected.
GlassesMainActivityétendComponentActivity, comme vous vous y attendez dans le développement mobile.- Étant donné que toutes les lunettes IA ne disposent pas d'un écran, vérifie si l'appareil en possède un à l'aide de
ProjectedDeviceController. - Le bloc
setContentde la fonctiononCreatedéfinit la racine de l'arborescence de l'interface utilisateur composable pour l'activité. Vous implémenterez leHomeScreencomposable à l'aide de Jetpack Compose Glimmer. - Initialise l'interface utilisateur pendant la méthode
onCreatede l'activité (voir le cycle de vie de l'activité projetée). - Pour préparer les fonctionnalités liées à l'appareil photo qui
accèdent au matériel des lunettes, demande des autorisations matérielles en
enregistrant un lanceur d'autorisations, en définissant les
hasCameraPermissionetrequestHardwarePermissionsfonctions, et en vérifiant si des autorisations ont été accordées avant d'appelerinitializeGlassesFeatures.
Implémenter le composable
L'activité que vous avez créée référence une fonction composable HomeScreen que vous devez implémenter. Le code suivant utilise Jetpack Compose Glimmer pour
définir un composable qui peut afficher du texte sur l'écran des lunettes IA :
@Composable fun HomeScreen( areVisualsOn: Boolean, isVisualUiSupported: Boolean, isPermissionDenied: Boolean, onRetryPermission: () -> Unit, onClose: () -> Unit, modifier: Modifier = Modifier ) { Box( modifier = modifier .surface(focusable = false) .fillMaxSize(), contentAlignment = Alignment.Center ) { if (isPermissionDenied) { Card( title = { Text("Permission Required") }, action = { Button(onClick = onClose) { Text("Exit") } } ) { Text("Camera access is needed to use AI glasses features.") Button(onClick = onRetryPermission) { Text("Retry") } } } else if (isVisualUiSupported) { Card( title = { Text("Android XR") }, action = { Button(onClick = onClose) { Text("Close") } } ) { if (areVisualsOn) { Text("Hello, AI Glasses!") } else { Text("Display is off. Audio guidance active.") } } } else { Text("Audio Guidance Mode Active") } } }
Points clés concernant le code
- Comme vous l'avez défini précédemment dans votre activité, la fonction
HomeScreeninclut le contenu composable que l'utilisateur voit lorsque l'écran des lunettes IA est allumé. - Le composant
Textde Jetpack Compose Glimmer affiche le texte "Hello, AI Glasses!" sur l'écran des lunettes. - Le composant
Buttonde Jetpack Compose Glimmer ferme l'activité en appelantfinish()viaonClosedans l'activité des lunettes IA.
Vérifier si les lunettes IA sont connectées
Pour déterminer si les lunettes IA d'un utilisateur sont connectées à son téléphone avant
de lancer votre activité, utilisez la
ProjectedContext.isProjectedDeviceConnected méthode. Cette méthode
renvoie un Flow<Boolean> que votre application peut observer pour obtenir des mises à jour en temps réel sur
l'état de la connexion.
Démarrer votre activité
Maintenant que vous avez créé une activité de base, vous pouvez la lancer sur vos lunettes. Pour accéder au matériel des lunettes, votre application doit démarrer votre activité avec des options spécifiques qui indiquent au système d'utiliser un contexte projeté, comme illustré dans le code suivant :
val options = ProjectedContext.createProjectedActivityOptions(context) val intent = Intent(context, GlassesMainActivity::class.java) context.startActivity(intent, options.toBundle())
La méthode createProjectedActivityOptions dans ProjectedContext
génère les options nécessaires pour démarrer votre activité dans un contexte projeté.
Le paramètre context peut être un contexte du téléphone ou de l'appareil des lunettes.
Étapes suivantes
Maintenant que vous avez créé votre première activité pour les lunettes IA, découvrez d'autres façons d'étendre ses fonctionnalités :
- Gérer la sortie audio à l'aide de la synthèse vocale
- Gérer l'entrée audio à l'aide de la reconnaissance vocale automatique
- Créer une interface utilisateur avec Jetpack Compose Glimmer
- Accéder au matériel des lunettes IA