Android XR to pierwsza platforma Androida stworzona w erze Gemini. Obsługuje ekosystem słuchawek, okularów i innych urządzeń. Gemini ułatwia korzystanie z hełmów Android XR i dodaje unikalne funkcje, pomagając użytkownikom zrozumieć, co widzą, i podejmować działania w ich imieniu.
Dostęp do interfejsów Gemini API możesz uzyskać za pomocą Firebase AI Logic, która jest dostępna zarówno w przypadku natywnych aplikacji na Androida (z Kotlinem), jak i Unity. Używaj tych interfejsów API do tworzenia funkcji opartych na AI, które integrują się z modelami Gemini i Imagen w chmurze.
Wybierz model
Na początek porównaj funkcje poszczególnych modeli dostępnych w Firebase. Następnie możesz ocenić wyniki różnych promptów dla różnych modeli w AI Studio, aby określić, który model pasuje do Twojego przypadku użycia.
Poznaj inne sposoby na ulepszenie aplikacji za pomocą Gemini
Po określeniu modelu, który pasuje do Twojego przypadku użycia, rozważ inne sposoby ulepszenia aplikacji:
- Interfejs głosowy: Android XR wykorzystuje naturalne dane wejściowe, takie jak dłonie, wzrok i głos, do poruszania się po systemie. Aby umożliwić użytkownikom poruszanie się po aplikacji za pomocą głosu, użyj interfejsu Gemini Live API wraz z wywoływaniem funkcji.
- Generowanie obrazów z obsługą multimodalną: generuj obrazy za pomocą modeli Gemini lub Imagen za pomocą interfejsu Gemini Developer API.
- Wzbogacanie interakcji w grach w aplikacjach Unity: generuj strukturalne dane wyjściowe za pomocą Gemini Developer API lub Vertex AI Gemini API.