API Gemini Vertex AI

Si vous ne connaissez pas l'API Gemini, l'API Gemini Developer est le fournisseur d'API recommandé pour les développeurs Android. Toutefois, si vous avez des exigences spécifiques concernant l'emplacement des données ou si vous êtes déjà intégré à l'environnement Vertex AI ou Google Cloud, vous pouvez utiliser l'API Gemini Vertex AI.

Migration depuis Vertex AI in Firebase

Si vous avez initialement intégré les modèles Gemini Flash et Pro à l'aide de Vertex AI dans Firebase, vous pouvez migrer vers Vertex AI et continuer à l'utiliser en tant que fournisseur d'API. Consultez la documentation Firebase pour obtenir un guide de migration détaillé.

Premiers pas

Avant d'interagir avec l'API Gemini Vertex AI directement depuis votre application, vous pouvez tester des requêtes dans Vertex AI Studio.

Configurer un projet Firebase et associer votre application à Firebase

Lorsque vous êtes prêt à appeler l'API Gemini Vertex AI depuis votre application, suivez les instructions de l'étape 1 du guide de démarrage de Firebase AI Logic pour configurer Firebase et le SDK dans votre application.

Ajouter la dépendance Gradle

Ajoutez la dépendance Gradle suivante au module de votre application :

dependencies {
  // ... other androidx dependencies

  // Import the BoM for the Firebase platform
  implementation(platform("com.google.firebase:firebase-bom:33.13.0"))

  // Add the dependency for the Firebase AI Logic library. When using the BoM,
  // you don't specify versions in Firebase library dependencies
  implementation("com.google.firebase:firebase-ai")
}

Initialiser le modèle génératif

Commencez par instancier un GenerativeModel et spécifier le nom du modèle :

Kotlin

val model = Firebase.ai(backend = GenerativeBackend.vertexAI())
                        .generativeModel("gemini-2.0-flash")

Java

GenerativeModel firebaseAI = FirebaseAI.getInstance(GenerativeBackend.vertexAI())
        .generativeModel("gemini-2.0-flash");

GenerativeModelFutures model = GenerativeModelFutures.from(firebaseAI);

Dans la documentation Firebase, vous trouverez plus d'informations sur les modèles disponibles à utiliser avec l'API Gemini Developer. Vous pouvez également découvrir comment configurer les paramètres du modèle.

Générer du texte

Pour générer une réponse textuelle, appelez generateContent() avec votre requête.

Kotlin

// Note: generateContent() is a suspend function, which integrates well
// with existing Kotlin code.
scope.launch {
  val response = model.generateContent("Write a story about a magic backpack.")
}

Java

Content prompt = new Content.Builder()
    .addText("Write a story about a magic backpack.")
    .build();

ListenableFuture<GenerateContentResponse> response = model.generateContent(prompt);
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
    @Override
    public void onSuccess(GenerateContentResponse result) {
        String resultText = result.getText();
        [...]
    }

    @Override
    public void onFailure(Throwable t) {
        t.printStackTrace();
    }
}, executor);

Comme avec l'API Gemini Developer, vous pouvez également transmettre des images, des fichiers audio, des vidéos et des fichiers avec votre requête textuelle (voir Interagir avec l'API Gemini Developer depuis votre application).

Pour en savoir plus sur le SDK Firebase AI Logic, consultez la documentation Firebase.