Wenn Sie die Gemini API noch nicht kennen, ist die Gemini Developer API der empfohlene API-Anbieter für Android-Entwickler. Wenn Sie jedoch spezifische DatenStandortanforderungen haben oder bereits in die Vertex AI- oder Google Cloud-Umgebung eingebunden sind, können Sie die Vertex AI Gemini API verwenden.
Migration von Vertex AI in Firebase
Wenn Sie die Modelle Gemini Flash und Pro ursprünglich mit Vertex AI in Firebase eingebunden haben, können Sie zu Vertex AI migrieren und es weiterhin als API-Anbieter verwenden. Eine detaillierte Migationsanleitung finden Sie in der Firebase-Dokumentation.
Erste Schritte
Bevor Sie direkt aus Ihrer App mit der Vertex AI Gemini API interagieren, können Sie Prompts in Vertex AI Studio testen.
Firebase-Projekt einrichten und App mit Firebase verbinden
Wenn Sie die Vertex AI Gemini API aus Ihrer App aufrufen möchten, folgen Sie der Anleitung im Leitfaden „Erste Schritte“ für Firebase AI Logic, um Firebase und das SDK in Ihrer App einzurichten.
Gradle-Abhängigkeit hinzufügen
Fügen Sie dem App-Modul die folgende Gradle-Abhängigkeit hinzu:
dependencies {
// ... other androidx dependencies
// Import the BoM for the Firebase platform
implementation(platform("com.google.firebase:firebase-bom:34.11.0"))
// Add the dependency for the Firebase AI Logic library. When using the BoM,
// you don't specify versions in Firebase library dependencies
implementation("com.google.firebase:firebase-ai")
}
Generatives Modell initialisieren
Instanziieren Sie zuerst ein GenerativeModel und geben Sie den Modellnamen an:
Kotlin
val model = Firebase.ai(backend = GenerativeBackend.vertexAI()) .generativeModel("gemini-2.5-flash")
Java
GenerativeModel firebaseAI = FirebaseAI.getInstance(GenerativeBackend.vertexAI()) .generativeModel("gemini-2.5-flash"); GenerativeModelFutures model = GenerativeModelFutures.from(firebaseAI);
In der Firebase-Dokumentation finden Sie weitere Informationen zu den verfügbaren Modellen für die Verwendung mit der Gemini Developer API. Außerdem erfahren Sie, wie Sie Modellparameter konfigurieren.
Text generieren
Rufen Sie generateContent() mit Ihrem Prompt auf, um eine Textantwort zu generieren.
Kotlin
suspend fun generateText(model: GenerativeModel) { // Note: generateContent() is a suspend function, which integrates well // with existing Kotlin code. val response = model.generateContent("Write a story about a magic backpack.") // ... }
Java
Content prompt = new Content.Builder() .addText("Write a story about a magic backpack.") .build(); ListenableFuture<GenerateContentResponse> response = model.generateContent(prompt); Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() { @Override public void onSuccess(GenerateContentResponse result) { String resultText = result.getText(); // ... } @Override public void onFailure(Throwable t) { t.printStackTrace(); } }, executor);
Ähnlich wie bei der Gemini Developer API können Sie auch Bilder, Audio, Videos und Dateien mit Ihrem Text-Prompt übergeben. Weitere Informationen finden Sie unter Mit der Gemini Developer API aus Ihrer App interagieren.
Weitere Informationen zum Firebase AI Logic SDK finden Sie in der Firebase-Dokumentation.