Vertex AI Gemini API

Wenn Sie die Gemini API noch nicht kennen, ist die Gemini Developer API der empfohlene API-Anbieter für Android-Entwickler. Wenn Sie jedoch bestimmte Anforderungen an den Datenspeicherort haben oder bereits in die Vertex AI- oder Google Cloud-Umgebung eingebunden sind, können Sie die Vertex AI Gemini API verwenden.

Migration von Vertex AI in Firebase

Wenn Sie die Gemini Flash- und Pro-Modelle ursprünglich mit Vertex AI in Firebase eingebunden haben, können Sie zu Vertex AI als API-Anbieter migrieren und es weiterhin verwenden. Einen detaillierten Migrationsleitfaden finden Sie in der Firebase-Dokumentation.

Erste Schritte

Bevor Sie direkt über Ihre App mit der Vertex AI Gemini API interagieren, können Sie Prompts in Vertex AI Studio testen.

Firebase-Projekt einrichten und App mit Firebase verbinden

Wenn Sie bereit sind, die Vertex AI Gemini API über Ihre App aufzurufen, folgen Sie der Anleitung im Firebase AI Logic-Startleitfaden unter „Schritt 1“, um Firebase und das SDK in Ihrer App einzurichten.

Gradle-Abhängigkeit hinzufügen

Fügen Sie Ihrem App-Modul die folgende Gradle-Abhängigkeit hinzu:

dependencies {
  // ... other androidx dependencies

  // Import the BoM for the Firebase platform
  implementation(platform("com.google.firebase:firebase-bom:33.13.0"))

  // Add the dependency for the Firebase AI Logic library. When using the BoM,
  // you don't specify versions in Firebase library dependencies
  implementation("com.google.firebase:firebase-ai")
}

Generatives Modell initialisieren

Instanziieren Sie zuerst ein GenerativeModel und geben Sie den Modellnamen an:

Kotlin

val model = Firebase.ai(backend = GenerativeBackend.vertexAI())
                        .generativeModel("gemini-2.0-flash")

Java

GenerativeModel firebaseAI = FirebaseAI.getInstance(GenerativeBackend.vertexAI())
        .generativeModel("gemini-2.0-flash");

GenerativeModelFutures model = GenerativeModelFutures.from(firebaseAI);

In der Firebase-Dokumentation finden Sie weitere Informationen zu den verfügbaren Modellen für die Verwendung mit der Gemini Developer API. Weitere Informationen zum Konfigurieren von Modellparametern

Text generieren

Rufen Sie generateContent() mit Ihrem Prompt auf, um eine Textantwort zu generieren.

Kotlin

// Note: generateContent() is a suspend function, which integrates well
// with existing Kotlin code.
scope.launch {
  val response = model.generateContent("Write a story about a magic backpack.")
}

Java

Content prompt = new Content.Builder()
    .addText("Write a story about a magic backpack.")
    .build();

ListenableFuture<GenerateContentResponse> response = model.generateContent(prompt);
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
    @Override
    public void onSuccess(GenerateContentResponse result) {
        String resultText = result.getText();
        [...]
    }

    @Override
    public void onFailure(Throwable t) {
        t.printStackTrace();
    }
}, executor);

Ähnlich wie bei der Gemini Developer API können Sie auch Bilder, Audio, Video und Dateien mit Ihrem Text-Prompt übergeben (siehe Mit der Gemini Developer API über Ihre App interagieren).

Weitere Informationen zum Firebase AI Logic SDK finden Sie in der Firebase-Dokumentation.