Integración con la API de Gemini Live para lentes con IA

Dispositivos XR aplicables
Esta guía te ayuda a crear experiencias para estos tipos de dispositivos de XR.
Lentes con IA

La API de Gemini Live proporciona una solución integral para implementar interfaces conversacionales con tu usuario. Cuando compiles para XR de Android, puedes realizar la integración con la API de Gemini Live a través de Firebase AI Logic. A diferencia del uso de Text-to-Speech (TTS) y Automatic Speech Recognition (ASR), la API de Gemini Live controla la entrada y salida de audio de forma fluida. La API de Gemini Live requiere una conexión a Internet persistente, genera costos, admite una cantidad limitada de conexiones simultáneas por proyecto y podría no ser ideal para controlar condiciones de error o cualquier otra comunicación crítica con el usuario, en especial en lentes de IA sin pantalla.

Además de admitir interfaces de audio, también puedes usar la API de Gemini Live para crear experiencias basadas en agentes.

Para comenzar a usar la API de Gemini Live, sigue los pasos que se describen en la guía de la API de Gemini Live. Te guía para crear instancias y configurar un objeto LiveGenerativeModel, establecer un objeto LiveSession y crear instancias FunctionDeclaration personalizadas que permitan que tu app procese solicitudes de Gemini.