Si vous ne connaissez pas l'API Gemini, l'API Gemini Developer est le fournisseur d'API recommandé pour les développeurs Android. Toutefois, si vous avez des exigences de localisation spécifiques pour les données ou si vous êtes déjà intégré à l'environnement Vertex AI ou Google Cloud, vous pouvez utiliser l'API Gemini Vertex AI.
Migrer depuis Vertex AI in Firebase
Si vous avez initialement intégré les modèles Gemini Flash et Pro à l'aide de Vertex AI dans Firebase, vous pouvez migrer vers Vertex AI en tant que fournisseur d'API et continuer à l'utiliser. Pour obtenir un guide de migration détaillé, consultez la documentation Firebase.
Premiers pas
Avant d'interagir avec l'API Gemini Vertex AI directement à partir de votre application, vous pouvez tester des requêtes dans Vertex AI Studio.
Configurer un projet Firebase et associer votre application à Firebase
Lorsque vous êtes prêt à appeler l'API Gemini Vertex AI à partir de votre application, suivez les instructions de l'étape 1 du guide de démarrage de la logique d'IA Firebase pour configurer Firebase et le SDK dans votre application.
Ajouter la dépendance Gradle
Ajoutez la dépendance Gradle suivante à votre module d'application:
dependencies {
// ... other androidx dependencies
// Import the BoM for the Firebase platform
implementation(platform("com.google.firebase:firebase-bom:33.13.0"))
// Add the dependency for the Firebase AI Logic library. When using the BoM,
// you don't specify versions in Firebase library dependencies
implementation("com.google.firebase:firebase-ai")
}
Initialiser le modèle génératif
Commencez par instancier un GenerativeModel
et spécifiez le nom du modèle:
Kotlin
val model = Firebase.ai(backend = GenerativeBackend.vertexAI())
.generativeModel("gemini-2.0-flash")
Java
GenerativeModel firebaseAI = FirebaseAI.getInstance(GenerativeBackend.vertexAI())
.generativeModel("gemini-2.0-flash");
GenerativeModelFutures model = GenerativeModelFutures.from(firebaseAI);
Dans la documentation Firebase, vous pouvez en savoir plus sur les modèles disponibles à utiliser avec l'API Gemini Developer. Vous pouvez également découvrir comment configurer les paramètres du modèle.
Générer du texte
Pour générer une réponse textuelle, appelez generateContent()
avec votre requête.
Kotlin
kotlin
// Note: generateContent() is a suspend function, which integrates well
// with existing Kotlin code.
scope.launch {
val response = model.generateContent("Write a story about a magic backpack.")
}
Java
Content prompt = new Content.Builder()
.addText("Write a story about a magic backpack.")
.build();
ListenableFuture<GenerateContentResponse> response = model.generateContent(prompt);
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
@Override
public void onSuccess(GenerateContentResponse result) {
String resultText = result.getText();
[...]
}
@Override
public void onFailure(Throwable t) {
t.printStackTrace();
}
}, executor);
Pour en savoir plus sur le SDK Firebase AI Logic, consultez la documentation Firebase.