Produktneuheiten

Experimentelle hybride Inferenz und neue Gemini-Modelle für Android

Lesezeit: 3 Minuten
Thomas Ezan
Senior Developer Relations Engineer

Wenn Sie Android-Entwickler sind und innovative KI-Funktionen in Ihre App einbinden möchten, haben wir vor Kurzem leistungsstarke neue Updates eingeführt:

  • Hybride Inferenz, eine neue API für Firebase AI Logic, mit der sowohl On-Device- als auch Cloud-Inferenz genutzt werden kann.
  • Unterstützung für neue Gemini-Modelle, einschließlich der neuesten Nano Banana-Modelle für die Bildgenerierung.

Fangen wir am besten gleich an.

Hybrid Inference testen

Mit der neuen Firebase API for hybrid inference haben wir einen einfachen regelbasierten Routing-Ansatz als erste Lösung implementiert, mit dem Sie sowohl die Inferenz auf dem Gerät als auch die Cloud-Inferenz über eine einheitliche API verwenden können. Wir planen, in Zukunft erweiterte Routing-Funktionen anzubieten.

So kann Ihre App dynamisch zwischen Gemini Nano, das lokal auf dem Gerät ausgeführt wird, und in der Cloud gehosteten Gemini-Modellen wechseln. Für die Ausführung auf dem Gerät wird die Prompt API von ML Kit verwendet. Die Cloud-Inferenz unterstützt alle Gemini-Modelle von Firebase AI Logic sowohl in Vertex AI als auch in der Developer API.

Fügen Sie dazu die firebase-ai-ondevice-Abhängigkeiten zusammen mit Firebase AI Logic zu Ihrer App hinzu:

dependencies {
 [...] 
 implementation("com.google.firebase:firebase-ai:17.10.1")
 implementation("com.google.firebase:firebase-ai-ondevice:16.0.0-beta01")
}

Bei der Initialisierung erstellen Sie eine GenerativeModel-Instanz und konfigurieren sie mit bestimmten Inferenzmodi wie PREFER_ON_DEVICE (Rückgriff auf die Cloud, wenn Gemini Nano auf dem Gerät nicht verfügbar ist) oder PREFER_IN_CLOUD (Rückgriff auf die On-Device-Inferenz, wenn offline):

val model = Firebase.ai(backend = GenerativeBackend.googleAI())
    .generativeModel(
        modelName = "gemini-3.1-flash-lite",
        onDeviceConfig = OnDeviceConfig(
           mode = InferenceMode.PREFER_ON_DEVICE
        )
    )

val response = model.generateContent(prompt)

Die Firebase API für hybride Inferenz für Android ist noch experimentell. Wir empfehlen Ihnen, sie in Ihrer App auszuprobieren, insbesondere wenn Sie Firebase AI Logic bereits verwenden. 

Derzeit sind On-Device-Modelle auf die Textgenerierung in einem Durchgang basierend auf Text- oder einzelnen Bitmap-Bildeingaben spezialisiert. Weitere Informationen finden Sie unter Einschränkungen.

Wir haben gerade ein neues Beispiel im AI Sample Catalog veröffentlicht, das die Firebase API für Hybrid nutzt. Es zeigt, wie die Firebase API für Hybrid Inference verwendet werden kann, um eine Rezension basierend auf einigen ausgewählten Themen zu generieren und sie dann in verschiedene Sprachen zu übersetzen. Sehen Sie sich den Code an, um zu sehen, wie das funktioniert.

Hybrid_Inference-Inline-imagery.gif
Das neue Beispiel für hybride Inferenzen in Aktion

Das neue Hybrid-Inferenzbeispiel in Aktion 

Neue Modelle ausprobieren

Im Rahmen der neuen Gemini-Modelle haben wir zwei Modelle veröffentlicht, die für Android-Entwickler besonders hilfreich sind und sich über das Firebase AI Logic SDK einfach in Ihre Anwendung einbinden lassen.

Nano Banana
Letztes Jahr haben wir Nano Banana veröffentlicht, ein hochmodernes Modell zur Bildgenerierung. Vor einigen Wochen haben wir zwei neue Nana Banana-Modelle veröffentlicht.

Nano Banana Pro (Gemini 3 Pro Image) wurde für die professionelle Asset-Produktion entwickelt und kann Text in hoher Qualität rendern, auch in einer bestimmten Schriftart oder in verschiedenen Handschriften.

Nano Banana 2 (Gemini 3.1 Flash Image) ist das hocheffiziente Gegenstück zu Nano Banana Pro. Sie ist für Geschwindigkeit und Anwendungsfälle mit hohem Volumen optimiert. Es kann für eine Vielzahl von Anwendungsfällen verwendet werden, z. B. Infografiken, virtuelle Sticker und kontextbezogene Illustrationen.  

Die neuen Nano Banana-Modelle nutzen Wissen aus der realen Welt und leistungsstarke Reasoning-Funktionen, um präzise und detaillierte Bilder zu generieren.

Wir haben unser Magic Selfie-Beispiel (mit Bildgenerierung den Hintergrund Ihres Selfies ändern) auf Nano Banana 2 aktualisiert. Die Hintergrundsegmentierung wird jetzt direkt vom Bildgenerierungsmodell übernommen, was die Implementierung vereinfacht und die verbesserte Bildgenerierung von Nano Banana 2 zur Geltung bringt. Hier können Sie sich ansehen, wie es funktioniert.

magic_selfie.png
Im aktualisierten Magic Selfie-Beispiel wird Nanobana 2 verwendet, um den Hintergrund eines Selfies zu aktualisieren.

Sie können es über das Firebase AI Logic SDK verwenden. Weitere Informationen dazu finden Sie in der Android-Dokumentation.

Gemini 3.1 Flash Lite

Außerdem haben wir Gemini 3.1 Flash-Lite veröffentlicht, eine neue Version der Gemini Flash-Lite-Familie. Die Gemini Flash-Lite-Modelle sind bei Android-Entwicklern besonders beliebt, da sie ein gutes Verhältnis zwischen Qualität und Latenz sowie niedrige Inferenzkosten bieten. Android-Entwickler haben die API bereits für verschiedene Anwendungsfälle genutzt, z. B. für die Übersetzung von In-App-Nachrichten oder zum Generieren eines Rezepts aus einem Bild eines Gerichts.  

Gemini 3.1 Flash-Lite, das sich derzeit in der Vorschauphase befindet, ermöglicht anspruchsvollere Anwendungsfälle mit einer Latenz, die mit der von Gemini 2.5 Flash-Lite vergleichbar ist.

Weitere Informationen zu diesem Modell finden Sie in der Firebase-Dokumentation.

Schlusswort

Sehen Sie sich am besten gleich das neue Hybridbeispiel in unserem Katalog an, um diese Funktionen in Aktion zu sehen und die Vorteile des Routings zwischen On-Device- und Cloud-Inferenz zu verstehen. Wir empfehlen Ihnen außerdem, unsere Dokumentation zu lesen, um die neuen Gemini-Modelle zu testen.

Verfasst von:

Weiterlesen