Android XR est la première plate-forme Android conçue pour l'ère Gemini. Elle alimente un écosystème de casques, de lunettes et de tous les autres appareils. Gemini facilite l'utilisation des casques Android XR et ajoute des fonctionnalités uniques en aidant vos utilisateurs à comprendre ce qu'ils voient et à effectuer des actions en leur nom.
Vous pouvez accéder aux API Gemini à l'aide de Firebase AI Logic, qui est disponible pour les applications Android natives (avec Kotlin) et pour Unity. Utilisez ces API pour créer des fonctionnalités optimisées par l'IA qui s'intègrent aux modèles Gemini et Imagen basés sur le cloud.
Choisir un modèle
Pour commencer, comparez les capacités de chaque modèle disponible dans Firebase. Vous pouvez ensuite évaluer les résultats de différentes requêtes pour différents modèles dans AI Studio afin de déterminer quel modèle correspond à votre cas d'utilisation.
Découvrez d'autres façons d'améliorer votre application avec Gemini
Une fois que vous avez déterminé le modèle qui correspond à votre cas d'utilisation, envisagez d'améliorer votre application de différentes manières :
- Fournir une interface vocale : Android XR utilise des entrées naturelles comme les mains, le regard et la voix pour naviguer dans le système. Pour permettre à vos utilisateurs de parcourir votre application à l'aide de leur voix, utilisez l'API Gemini Live avec l'appel de fonction.
- Générez des images avec la prise en charge multimodale : générez des images à l'aide des modèles Gemini ou Imagen avec l'API Gemini Developer.
- Enrichir les interactions de jeu dans les applications Unity : générez des sorties structurées à l'aide de l'API Gemini Developer ou de l'API Gemini Vertex AI.