Integrare l'API Gemini Live per gli occhiali AI

Dispositivi XR applicabili
Queste indicazioni ti aiutano a creare esperienze per questi tipi di dispositivi XR.
AI Glasses

L'API Gemini Live fornisce una soluzione completa per implementare interfacce conversazionali con l'utente. Quando crei per Android XR, puoi eseguire l'integrazione con l'API Gemini Live tramite Firebase AI Logic. A differenza dell'utilizzo della sintesi vocale (TTS) e del riconoscimento vocale automatico (ASR), l'API Gemini Live gestisce l'input e l'output audio in modo fluido. L'API Gemini Live richiede una connessione a internet persistente, comporta costi, supporta un numero limitato di connessioni simultanee per progetto e potrebbe non essere ideale per gestire condizioni di errore o altre comunicazioni critiche dell'utente, soprattutto su occhiali AI senza display.

Oltre a supportare le interfacce audio, puoi anche utilizzare l'API Gemini Live per creare esperienze di agenti.

Per iniziare a utilizzare l'API Gemini Live, segui i passaggi descritti nella Guida all'API Gemini Live. Ti guida nell'istanziamento e nella configurazione di un LiveGenerativeModel, nella creazione di un LiveSession e nella creazione di istanze FunctionDeclaration personalizzate che consentono alla tua app di elaborare le richieste di Gemini.