Modèles d'IA Gemini

Les familles de modèles Gemini Pro et Gemini Flash offrent aux développeurs Android des capacités d'IA multimodales, en exécutant l'inférence dans le cloud et en traitant les entrées d'image, audio, vidéo et de texte dans les applications Android.

  • Gemini Pro : Gemini 2.5 Pro est le modèle de réflexion de pointe de Google. Il est capable de raisonner sur des problèmes complexes en code, en mathématiques et dans les domaines des sciences, de la technologie, de l'ingénierie et des mathématiques (STEM, pour Science, Technology, Engineering and Mathematics). Il peut également analyser de grands ensembles de données, des codebases et des documents à l'aide d'un contexte long.
  • Gemini Flash : les modèles Gemini Flash offrent des fonctionnalités de nouvelle génération et des capacités améliorées, y compris une vitesse supérieure, l'utilisation d'outils intégrés et une fenêtre de contexte d'un million de jetons.

Firebase AI Logic

Firebase AI Logic permet aux développeurs d'ajouter de l'IA générative Google de manière sécurisée et directe à leurs applications, ce qui simplifie le développement. Il propose également des outils et des intégrations de produits pour une préparation réussie à la production. Il fournit des SDK Android client pour intégrer et appeler directement l'API Gemini à partir du code client, ce qui simplifie le développement en éliminant le besoin d'un backend.

Fournisseurs d'API

Firebase AI Logic vous permet d'utiliser les fournisseurs d'API Google Gemini suivants : l'API Gemini Developer et l'API Gemini Vertex AI.

Illustration montrant une application Android utilisant le SDK Firebase Android pour se connecter à Firebase dans le cloud. À partir de là, la logique d'IA s'intègre à l'aide de deux chemins : l'API Gemini Developer ou Vertex AI de Google Cloud Platform, qui exploitent toutes deux les modèles Gemini Pro et Flash.
Figure 1. Architecture d'intégration de Firebase AI Logic.

Voici les principales différences pour chaque fournisseur d'API :

API Gemini Developer :

  • Lancez-vous sans frais avec un niveau sans frais généreux, sans avoir à fournir d'informations de paiement.
  • Vous pouvez également passer à la version payante de l'API Gemini Developer pour évoluer à mesure que votre base d'utilisateurs s'agrandit.
  • Itérez et testez des requêtes, et obtenez même des extraits de code à l'aide de Google AI Studio.

API Gemini Vertex AI :

Le choix du fournisseur d'API approprié pour votre application dépend de vos contraintes commerciales et techniques, ainsi que de votre connaissance de l'écosystème Vertex AI et Google Cloud. La plupart des développeurs Android qui débutent avec les intégrations Gemini Pro ou Gemini Flash doivent commencer par l'API Gemini Developer. Pour passer d'un fournisseur à un autre, modifiez le paramètre dans le constructeur du modèle :

Kotlin

// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`
val model = Firebase.ai(backend = GenerativeBackend.googleAI())
    .generativeModel("gemini-2.5-flash")

val response = model.generateContent("Write a story about a magic backpack");
val output = response.text

Java

// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`
GenerativeModel firebaseAI = FirebaseAI.getInstance(GenerativeBackend.googleAI())
        .generativeModel("gemini-2.5-flash");

// Use the GenerativeModelFutures Java compatibility layer which offers
// support for ListenableFuture and Publisher APIs
GenerativeModelFutures model = GenerativeModelFutures.from(firebaseAI);

Content prompt = new Content.Builder()
    .addText("Write a story about a magic backpack.")
    .build();

ListenableFuture<GenerateContentResponse> response = model.generateContent(prompt);
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
    @Override
    public void onSuccess(GenerateContentResponse result) {
        String resultText = result.getText();
        [...]
    }

    @Override
    public void onFailure(Throwable t) {
        t.printStackTrace();
    }
}, executor);

Consultez la liste complète des modèles d'IA générative disponibles compatibles avec les SDK client Firebase AI Logic.

Services Firebase

En plus de l'accès à l'API Gemini, Firebase AI Logic propose un ensemble de services pour simplifier le déploiement de fonctionnalités optimisées par l'IA dans votre application et vous préparer à la production :

Vérification de l'application

Firebase App Check protège les backends d'application contre les utilisations abusives en s'assurant que seuls les clients autorisés accèdent aux ressources. Il s'intègre aux services Google (y compris Firebase et Google Cloud) et aux backends personnalisés. App Check utilise Play Integrity pour vérifier que les requêtes proviennent de l'application authentique et d'un appareil non falsifié.

Remote Config

Au lieu de coder en dur le nom du modèle dans votre application, nous vous recommandons d'utiliser une variable contrôlée par le serveur à l'aide de Firebase Remote Config. Cela vous permet de mettre à jour dynamiquement le modèle utilisé par votre application sans avoir à déployer une nouvelle version de votre application ni à demander à vos utilisateurs d'en télécharger une nouvelle. Vous pouvez également utiliser Remote Config pour tester des modèles et des invites.

AI Monitoring

Pour comprendre les performances de vos fonctionnalités optimisées par l'IA, vous pouvez utiliser le tableau de bord de surveillance de l'IA dans la console Firebase. Vous obtiendrez des insights précieux sur les habitudes d'utilisation, les métriques de performances et les informations de débogage pour vos appels d'API Gemini.

Migrer vers Firebase AI Logic

Si vous utilisez déjà le SDK Vertex AI in Firebase dans votre application, consultez le guide de migration.