Intégrer l'API Gemini Live pour les lunettes d'IA

Appareils XR concernés
Ces conseils vous aident à créer des expériences pour ces types d'appareils XR.
Lunettes IA

L'API Gemini Live fournit une solution complète pour implémenter des interfaces conversationnelles avec vos utilisateurs. Lorsque vous développez pour Android XR, vous pouvez intégrer l'API Gemini Live via Firebase AI Logic. Contrairement à l'utilisation de la synthèse vocale et de la reconnaissance vocale automatique, l'API Gemini Live gère à la fois les entrées et les sorties audio de manière fluide. L'API Gemini Live nécessite une connexion Internet permanente, engendre des coûts, prend en charge un nombre limité de connexions simultanées par projet et n'est peut-être pas idéale pour gérer les conditions d'erreur ou d'autres communications utilisateur critiques, en particulier sur les lunettes d'IA sans écran.

En plus de prendre en charge les interfaces audio, vous pouvez également utiliser l'API Gemini Live pour créer des expériences agentiques.

Pour commencer à utiliser l'API Gemini Live, suivez les étapes décrites dans le guide de l'API Gemini Live. Il vous explique comment instancier et configurer un LiveGenerativeModel, établir un LiveSession et créer des instances FunctionDeclaration personnalisées qui permettent à votre application de traiter les requêtes de Gemini.