L'API Gemini Live fornisce una soluzione completa per implementare interfacce conversazionali con l'utente. Quando crei per Android XR, puoi eseguire l'integrazione con l'API Gemini Live tramite Firebase AI Logic. A differenza dell'utilizzo della sintesi vocale (TTS) e del riconoscimento vocale automatico (ASR), l'API Gemini Live gestisce l'input e l'output audio in modo fluido. L'API Gemini Live richiede una connessione a internet persistente, comporta costi, supporta un numero limitato di connessioni simultanee per progetto e potrebbe non essere ideale per gestire condizioni di errore o altre comunicazioni critiche dell'utente, soprattutto su occhiali AI senza display.
Oltre a supportare le interfacce audio, puoi anche utilizzare l'API Gemini Live per creare esperienze di agenti.
Per iniziare a utilizzare l'API Gemini Live, segui i passaggi descritti nella Guida all'API Gemini Live. Ti guida nell'istanziamento e nella configurazione di un
LiveGenerativeModel, nella creazione di un
LiveSession e nella creazione di istanze
FunctionDeclaration personalizzate che consentono alla tua app di elaborare
le richieste di Gemini.