Vertex AI Gemini API

Wenn Sie die Gemini API noch nicht kennen, ist die Gemini Developer API der empfohlene API-Anbieter für Android-Entwickler. Wenn Sie jedoch spezifische DatenStandortanforderungen haben oder bereits in die Vertex AI- oder Google Cloud-Umgebung eingebunden sind, können Sie die Vertex AI Gemini API verwenden.

Migration von Vertex AI in Firebase

Wenn Sie die Modelle Gemini Flash und Pro ursprünglich mit Vertex AI in Firebase eingebunden haben, können Sie zu Vertex AI migrieren und es weiterhin als API-Anbieter verwenden. Eine detaillierte Migationsanleitung finden Sie in der Firebase-Dokumentation.

Erste Schritte

Bevor Sie direkt aus Ihrer App mit der Vertex AI Gemini API interagieren, können Sie Prompts in Vertex AI Studio testen.

Firebase-Projekt einrichten und App mit Firebase verbinden

Wenn Sie die Vertex AI Gemini API aus Ihrer App aufrufen möchten, folgen Sie der Anleitung im Leitfaden „Erste Schritte“ für Firebase AI Logic, um Firebase und das SDK in Ihrer App einzurichten.

Gradle-Abhängigkeit hinzufügen

Fügen Sie dem App-Modul die folgende Gradle-Abhängigkeit hinzu:

dependencies {
  // ... other androidx dependencies

  // Import the BoM for the Firebase platform
  implementation(platform("com.google.firebase:firebase-bom:34.11.0"))

  // Add the dependency for the Firebase AI Logic library. When using the BoM,
  // you don't specify versions in Firebase library dependencies
  implementation("com.google.firebase:firebase-ai")
}

Generatives Modell initialisieren

Instanziieren Sie zuerst ein GenerativeModel und geben Sie den Modellnamen an:

Kotlin

val model = Firebase.ai(backend = GenerativeBackend.vertexAI())
    .generativeModel("gemini-2.5-flash")

Java

GenerativeModel firebaseAI = FirebaseAI.getInstance(GenerativeBackend.vertexAI())
        .generativeModel("gemini-2.5-flash");

GenerativeModelFutures model = GenerativeModelFutures.from(firebaseAI);

In der Firebase-Dokumentation finden Sie weitere Informationen zu den verfügbaren Modellen für die Verwendung mit der Gemini Developer API. Außerdem erfahren Sie, wie Sie Modellparameter konfigurieren.

Text generieren

Rufen Sie generateContent() mit Ihrem Prompt auf, um eine Textantwort zu generieren.

Kotlin

suspend fun generateText(model: GenerativeModel) {
    // Note: generateContent() is a suspend function, which integrates well
    // with existing Kotlin code.
    val response = model.generateContent("Write a story about a magic backpack.")
    // ...
}

Java

Content prompt = new Content.Builder()
        .addText("Write a story about a magic backpack.")
        .build();

ListenableFuture<GenerateContentResponse> response = model.generateContent(prompt);
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
    @Override
    public void onSuccess(GenerateContentResponse result) {
        String resultText = result.getText();
        // ...
    }

    @Override
    public void onFailure(Throwable t) {
        t.printStackTrace();
    }
}, executor);

Ähnlich wie bei der Gemini Developer API können Sie auch Bilder, Audio, Videos und Dateien mit Ihrem Text-Prompt übergeben. Weitere Informationen finden Sie unter Mit der Gemini Developer API aus Ihrer App interagieren.

Weitere Informationen zum Firebase AI Logic SDK finden Sie in der Firebase-Dokumentation.