Integracja z interfejsem Gemini Live API na potrzeby okularów AI

Odpowiednie urządzenia XR
Te wskazówki pomogą Ci tworzyć treści na te urządzenia XR.
Okulary AI

Gemini Live API to kompleksowe rozwiązanie do wdrażania interfejsów konwersacyjnych dla użytkowników. Podczas tworzenia aplikacji na Androida XR możesz zintegrować ją z interfejsem Gemini Live API za pomocą Firebase AI Logic. W przeciwieństwie do zamiany tekstu na mowę (TTS)automatycznego rozpoznawania mowy (ASR) interfejs Gemini Live API obsługuje zarówno wejście, jak i wyjście audio w sposób płynny. Interfejs Gemini Live API wymaga stałego połączenia z internetem, generuje koszty, obsługuje ograniczoną liczbę połączeń równoczesnych na projekt i może nie być idealny do obsługi błędów lub innych krytycznych komunikatów użytkownika, zwłaszcza w przypadku okularów AI bez wyświetlacza.

Oprócz obsługi interfejsów audio możesz też używać interfejsu Gemini Live API do tworzenia funkcji opartych na agentach.

Aby rozpocząć korzystanie z interfejsu Gemini Live API, postępuj zgodnie z instrukcjami podanymi w przewodniku po interfejsie Gemini Live API. Lista pomoże Ci utworzyć i skonfigurować LiveGenerativeModel, ustanowić LiveSession i utworzyć niestandardowe instancje FunctionDeclaration, które umożliwią Twojej aplikacji przetwarzanie żądań z Gemini.