Android XR ist die erste Android-Plattform, die in der Gemini-Ära entwickelt wurde. Sie ist das Betriebssystem für Headsets, Datenbrillen und alle anderen Geräte dieser Art. Gemini macht Android XR-Headsets benutzerfreundlicher und bietet einzigartige Funktionen, indem es Nutzern hilft, das Gesehene zu verstehen und Aktionen in ihrem Namen auszuführen.
Sie können über Firebase AI Logic auf Gemini APIs zugreifen. Diese Funktion ist sowohl für native Android-Apps (mit Kotlin) als auch für Unity verfügbar. Mit diesen APIs können Sie KI-basierte Funktionen erstellen, die in cloudbasierte Gemini- und Imagen-Modelle eingebunden werden.
Modell auswählen
Vergleichen Sie die Funktionen der einzelnen Modelle, die in Firebase verfügbar sind, um zu beginnen. Anschließend können Sie die Ergebnisse verschiedener Prompts für unterschiedliche Modelle in AI Studio auswerten, um festzustellen, welches Modell für Ihren Anwendungsfall geeignet ist.
Weitere Möglichkeiten, Ihre App mit Gemini zu optimieren
Nachdem Sie das Modell ermittelt haben, das zu Ihrem Anwendungsfall passt, können Sie Ihre App auf folgende Weise optimieren:
- Sprachschnittstelle bereitstellen: Android XR verwendet natürliche Eingaben wie Hände, Blick und Stimme, um das System zu steuern. Wenn Sie Ihren Nutzern die Möglichkeit geben möchten, Ihre App per Spracheingabe zu bedienen, verwenden Sie die Gemini Live API zusammen mit Funktionsaufrufen.
- Bilder mit multimodaler Unterstützung generieren: Mit der Gemini Developer API können Sie Bilder mit Gemini- oder Imagen-Modellen generieren.
- Spielinteraktionen in Unity-Apps optimieren: Generieren Sie strukturierte Ausgaben mit der Gemini Developer API oder der Vertex AI Gemini API.