Gemini-KI-Modelle

Die Modellfamilien Gemini Pro und Gemini Flash bieten Android-Entwicklern multimodale KI-Funktionen, die Inferenz in der Cloud ausführen und Bild-, Audio-, Video- und Texteingaben in Android-Apps verarbeiten.

  • Gemini Pro: Gemini 2.5 Pro ist das hochmoderne Denkmodell von Google, das komplexe Probleme in den Bereichen Code, Mathematik und MINT-Fächer lösen und große Datensätze, Codebases und Dokumente mithilfe von Langformat-Kontext analysieren kann.
  • Gemini Flash: Die Gemini Flash-Modelle bieten Funktionen der nächsten Generation und verbesserte Funktionen, darunter eine höhere Geschwindigkeit, die Verwendung integrierter Tools und ein Kontextfenster von 1 Million Tokens.

Firebase AI Logic

Mit Firebase AI Logic können Entwickler die generative KI von Google sicher und direkt in ihre Apps einbinden, was die Entwicklung vereinfacht. Außerdem bietet es Tools und Produktintegrationen für die erfolgreiche Produktionsbereitschaft. Es bietet Android-Client-SDKs, mit denen Gemini APIs direkt in Clientcode eingebunden und aufgerufen werden können. Dadurch wird die Entwicklung vereinfacht, da kein Backend erforderlich ist.

API-Anbieter

Mit Firebase AI Logic können Sie die folgenden Google Gemini API-Anbieter verwenden: die Gemini Developer API und die Vertex AI Gemini API.

Abbildung einer Android-App, die über das Firebase Android SDK eine Verbindung zu Firebase in der Cloud herstellt Anschließend wird die KI-Logik über zwei Pfade eingebunden: die Gemini Developer API oder Vertex AI der Google Cloud Platform. Beide nutzen Gemini Pro- und Flash-Modelle.
Abbildung 1 Architektur für die Integration von Firebase-KI-Logik.

Hier sind die Hauptunterschiede der einzelnen API-Anbieter:

Gemini Developer API:

  • Du kannst YouTube Music Premium jetzt kostenlos testen. Es sind keine Zahlungsinformationen erforderlich.
  • Sie können optional ein Upgrade auf die kostenpflichtige Version der Gemini Developer API durchführen, um die Skalierung mit wachsender Nutzerbasis zu ermöglichen.
  • Mit Google AI Studio können Sie Prompts iterieren und damit experimentieren und sogar Code-Snippets abrufen.

Vertex AI Gemini API:

  • Detaillierte Kontrolle darüber, wo Sie auf das Modell zugreifen.
  • Ideal für Entwickler, die bereits mit dem Vertex AI-/Google Cloud-System vertraut sind.
  • Mit Vertex AI Studio können Sie Prompts iterieren und damit experimentieren und sogar Code-Snippets abrufen.

Die Auswahl des geeigneten API-Anbieters für Ihre Anwendung hängt von Ihren geschäftlichen und technischen Einschränkungen sowie von Ihrer Kenntnis des Vertex AI- und Google Cloud-Ökosystems ab. Die meisten Android-Entwickler, die gerade erst mit Gemini Pro oder Gemini Flash-Integrationen beginnen, sollten mit der Gemini Developer API beginnen. Zum Wechseln zwischen Anbietern ändern Sie den Parameter im Modellkonstruktor:

Kotlin

// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`
val model = Firebase.ai(backend = GenerativeBackend.googleAI())
    .generativeModel("gemini-2.0-flash")

val response = model.generateContent("Write a story about a magic backpack");
val output = response.text

Java

// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`
GenerativeModel firebaseAI = FirebaseAI.getInstance(GenerativeBackend.googleAI())
        .generativeModel("gemini-2.0-flash");

// Use the GenerativeModelFutures Java compatibility layer which offers
// support for ListenableFuture and Publisher APIs
GenerativeModelFutures model = GenerativeModelFutures.from(firebaseAI);

Content prompt = new Content.Builder()
    .addText("Write a story about a magic backpack.")
    .build();

ListenableFuture<GenerateContentResponse> response = model.generateContent(prompt);
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
    @Override
    public void onSuccess(GenerateContentResponse result) {
        String resultText = result.getText();
        [...]
    }

    @Override
    public void onFailure(Throwable t) {
        t.printStackTrace();
    }
}, executor);

Vollständige Liste der verfügbaren generativen KI-Modelle, die von Firebase AI Logic-Client-SDKs unterstützt werden

Firebase-Dienste

Neben dem Zugriff auf die Gemini API bietet Firebase AI Logic eine Reihe von Diensten, mit denen sich die Bereitstellung KI-fähiger Funktionen in Ihrer App vereinfachen und die Produktionsbereitschaft beschleunigen lässt:

App-Überprüfung

Firebase App Check schützt App-Backends vor Missbrauch, indem nur autorisierte Clients auf Ressourcen zugreifen können. Sie lässt sich in Google-Dienste (einschließlich Firebase und Google Cloud) und benutzerdefinierte Back-Ends einbinden. Bei App-Überprüfung wird die Play Integrity API verwendet, um zu prüfen, ob Anfragen von der authentischen App und einem nicht manipulierten Gerät stammen.

Remote Config

Anstatt den Modellnamen in Ihrer App hartzucodieren, empfehlen wir, eine servergesteuerte Variable mit Firebase Remote Config zu verwenden. So können Sie das von Ihrer App verwendete Modell dynamisch aktualisieren, ohne eine neue Version Ihrer App bereitstellen oder Ihre Nutzer auffordern zu müssen, eine neue Version zu verwenden. Mit Remote Config können Sie auch A/B-Tests für Modelle und Prompts durchführen.

KI-Monitoring

Wenn Sie wissen möchten, wie Ihre KI-gestützten Funktionen abschneiden, können Sie das Dashboard für das KI-Monitoring in der Firebase Console verwenden. Sie erhalten wertvolle Informationen zu Nutzungsmustern, Leistungsmesswerten und Informationen zur Fehlerbehebung für Ihre Gemini API-Aufrufe.

Zu Firebase AI Logic migrieren

Wenn Sie das Vertex AI in Firebase SDK bereits in Ihrer App verwenden, lesen Sie den Migrationsleitfaden.