Wenn Sie die Gemini API noch nicht kennen, ist die Gemini Developer API der empfohlene API-Anbieter für Android-Entwickler. Wenn Sie jedoch bestimmte Anforderungen an den Speicherort von Daten haben oder bereits in die Vertex AI- oder Google Cloud-Umgebung eingebettet sind, können Sie die Vertex AI Gemini API verwenden.
Migration von Vertex AI in Firebase
Wenn Sie die Gemini Flash- und Pro-Modelle ursprünglich mit Vertex AI in Firebase eingebunden haben, können Sie zu Vertex AI migrieren und es weiterhin als API-Anbieter verwenden. In der Firebase-Dokumentation finden Sie einen detaillierten Migrationsleitfaden.
Erste Schritte
Bevor Sie direkt über Ihre App mit der Vertex AI Gemini API interagieren, können Sie in Vertex AI Studio mit Prompts experimentieren.
Firebase-Projekt einrichten und App mit Firebase verbinden
Wenn Sie die Vertex AI Gemini API in Ihrer App aufrufen möchten, folgen Sie der Anleitung unter „Schritt 1“ im Firebase AI Logic-Leitfaden für den Einstieg, um Firebase und das SDK in Ihrer App einzurichten.
Gradle-Abhängigkeit hinzufügen
Fügen Sie Ihrem App-Modul die folgende Gradle-Abhängigkeit hinzu:
dependencies {
// ... other androidx dependencies
// Import the BoM for the Firebase platform
implementation(platform("com.google.firebase:firebase-bom:33.13.0"))
// Add the dependency for the Firebase AI Logic library. When using the BoM,
// you don't specify versions in Firebase library dependencies
implementation("com.google.firebase:firebase-ai")
}
Generatives Modell initialisieren
Erstellen Sie zuerst eine Instanz von GenerativeModel
und geben Sie den Modellnamen an:
Kotlin
val model = Firebase.ai(backend = GenerativeBackend.vertexAI())
.generativeModel("gemini-2.0-flash")
Java
GenerativeModel firebaseAI = FirebaseAI.getInstance(GenerativeBackend.vertexAI())
.generativeModel("gemini-2.0-flash");
GenerativeModelFutures model = GenerativeModelFutures.from(firebaseAI);
In der Firebase-Dokumentation finden Sie weitere Informationen zu den verfügbaren Modellen, die Sie mit der Gemini Developer API verwenden können. Weitere Informationen zum Konfigurieren von Modellparametern
Text generieren
Wenn Sie eine Textantwort generieren möchten, rufen Sie generateContent()
mit Ihrem Prompt auf.
Kotlin
kotlin
// Note: generateContent() is a suspend function, which integrates well
// with existing Kotlin code.
scope.launch {
val response = model.generateContent("Write a story about a magic backpack.")
}
Java
Content prompt = new Content.Builder()
.addText("Write a story about a magic backpack.")
.build();
ListenableFuture<GenerateContentResponse> response = model.generateContent(prompt);
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
@Override
public void onSuccess(GenerateContentResponse result) {
String resultText = result.getText();
[...]
}
@Override
public void onFailure(Throwable t) {
t.printStackTrace();
}
}, executor);
Ähnlich wie bei der Gemini Developer API können Sie auch Bilder, Audio, Video und Dateien mit Ihrem Textprompt übergeben (siehe Über die Gemini Developer API mit Ihrer App interagieren).
Weitere Informationen zum Firebase AI Logic SDK finden Sie in der Firebase-Dokumentation.