Vertex AI Gemini API

Wenn Sie die Gemini API noch nicht kennen, ist die Gemini Developer API der empfohlene API-Anbieter für Android-Entwickler. Wenn Sie jedoch bestimmte Anforderungen an den Speicherort von Daten haben oder bereits in die Vertex AI- oder Google Cloud-Umgebung eingebettet sind, können Sie die Vertex AI Gemini API verwenden.

Migration von Vertex AI in Firebase

Wenn Sie die Gemini Flash- und Pro-Modelle ursprünglich mit Vertex AI in Firebase eingebunden haben, können Sie zu Vertex AI migrieren und es weiterhin als API-Anbieter verwenden. In der Firebase-Dokumentation finden Sie einen detaillierten Migrationsleitfaden.

Erste Schritte

Bevor Sie direkt über Ihre App mit der Vertex AI Gemini API interagieren, können Sie in Vertex AI Studio mit Prompts experimentieren.

Firebase-Projekt einrichten und App mit Firebase verbinden

Wenn Sie die Vertex AI Gemini API in Ihrer App aufrufen möchten, folgen Sie der Anleitung unter „Schritt 1“ im Firebase AI Logic-Leitfaden für den Einstieg, um Firebase und das SDK in Ihrer App einzurichten.

Gradle-Abhängigkeit hinzufügen

Fügen Sie Ihrem App-Modul die folgende Gradle-Abhängigkeit hinzu:

dependencies {
  // ... other androidx dependencies

  // Import the BoM for the Firebase platform
  implementation(platform("com.google.firebase:firebase-bom:33.13.0"))

  // Add the dependency for the Firebase AI Logic library. When using the BoM,
  // you don't specify versions in Firebase library dependencies
  implementation("com.google.firebase:firebase-ai")
}

Generatives Modell initialisieren

Erstellen Sie zuerst eine Instanz von GenerativeModel und geben Sie den Modellnamen an:

Kotlin

val model = Firebase.ai(backend = GenerativeBackend.vertexAI())
                        .generativeModel("gemini-2.0-flash")

Java

GenerativeModel firebaseAI = FirebaseAI.getInstance(GenerativeBackend.vertexAI())
        .generativeModel("gemini-2.0-flash");

GenerativeModelFutures model = GenerativeModelFutures.from(firebaseAI);

In der Firebase-Dokumentation finden Sie weitere Informationen zu den verfügbaren Modellen, die Sie mit der Gemini Developer API verwenden können. Weitere Informationen zum Konfigurieren von Modellparametern

Text generieren

Wenn Sie eine Textantwort generieren möchten, rufen Sie generateContent() mit Ihrem Prompt auf.

Kotlin

kotlin // Note: generateContent() is a suspend function, which integrates well // with existing Kotlin code. scope.launch { val response = model.generateContent("Write a story about a magic backpack.") }

Java

Content prompt = new Content.Builder()
    .addText("Write a story about a magic backpack.")
    .build();

ListenableFuture<GenerateContentResponse> response = model.generateContent(prompt);
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
    @Override
    public void onSuccess(GenerateContentResponse result) {
        String resultText = result.getText();
        [...]
    }

    @Override
    public void onFailure(Throwable t) {
        t.printStackTrace();
    }
}, executor);

Ähnlich wie bei der Gemini Developer API können Sie auch Bilder, Audio, Video und Dateien mit Ihrem Textprompt übergeben (siehe Über die Gemini Developer API mit Ihrer App interagieren).

Weitere Informationen zum Firebase AI Logic SDK finden Sie in der Firebase-Dokumentation.