Les familles de modèles Gemini Pro et Gemini Flash offrent aux développeurs Android des fonctionnalités d'IA multimodale, exécutant des inférences dans le cloud et traitant les entrées d'image, audio, vidéo et texte dans les applications Android.
- Gemini Pro: Gemini 2.5 Pro est le modèle de raisonnement de pointe de Google. Il est capable de raisonner sur des problèmes complexes en codage, en mathématiques et dans les domaines STEM, ainsi que d'analyser de grands ensembles de données, des codebases et des documents à l'aide d'un contexte long.
- Gemini Flash: les modèles Gemini Flash offrent des fonctionnalités de nouvelle génération et des fonctionnalités améliorées, y compris une vitesse supérieure, l'utilisation d'outils intégrés et une fenêtre de contexte d'un million de jetons.
Logique d'IA Firebase
Firebase AI Logic permet aux développeurs d'ajouter directement et de manière sécurisée l'IA générative de Google à leurs applications, ce qui simplifie le développement. Il propose également des outils et des intégrations de produits pour préparer les applications à la production. Il fournit des SDK Android client pour intégrer et appeler directement les API Gemini à partir du code client, ce qui simplifie le développement en éliminant le besoin d'un backend.
Fournisseurs d'API
La logique d'IA Firebase vous permet d'utiliser les fournisseurs d'API Google Gemini suivants : l'API Gemini Developer et l'API Gemini Vertex AI.
Voici les principales différences entre chaque fournisseur d'API:
API Gemini pour les développeurs:
- Lancez-vous sans frais avec un niveau sans frais généreux, sans informations de paiement requises.
- Vous pouvez passer à l'abonnement payant de l'API Gemini Developer pour faire évoluer votre base d'utilisateurs.
- Itérez et testez des requêtes, et obtenez même des extraits de code à l'aide de Google AI Studio.
- Contrôle précis de l'endroit où vous accédez au modèle.
- Idéal pour les développeurs déjà intégrés à l'écosystème Vertex AI/Google Cloud.
- Itérez et testez des requêtes, et obtenez même des extraits de code à l'aide de Vertex AI Studio.
La sélection du fournisseur d'API approprié pour votre application dépend de vos contraintes commerciales et techniques, ainsi que de votre connaissance de l'écosystème Vertex AI et Google Cloud. La plupart des développeurs Android qui débutent avec les intégrations Gemini Pro ou Gemini Flash doivent commencer par l'API Gemini Developer. Pour passer d'un fournisseur à un autre, modifiez le paramètre dans le constructeur du modèle:
Kotlin
// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`
val model = Firebase.ai(backend = GenerativeBackend.googleAI())
.generativeModel("gemini-2.0-flash")
val response = model.generateContent("Write a story about a magic backpack");
val output = response.text
Java
// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`
GenerativeModel firebaseAI = FirebaseAI.getInstance(GenerativeBackend.googleAI())
.generativeModel("gemini-2.0-flash");
// Use the GenerativeModelFutures Java compatibility layer which offers
// support for ListenableFuture and Publisher APIs
GenerativeModelFutures model = GenerativeModelFutures.from(firebaseAI);
Content prompt = new Content.Builder()
.addText("Write a story about a magic backpack.")
.build();
ListenableFuture<GenerateContentResponse> response = model.generateContent(prompt);
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
@Override
public void onSuccess(GenerateContentResponse result) {
String resultText = result.getText();
[...]
}
@Override
public void onFailure(Throwable t) {
t.printStackTrace();
}
}, executor);
Consultez la liste complète des modèles d'IA générative disponibles compatibles avec les SDK clients de logique d'IA Firebase.
Services Firebase
En plus de l'accès à l'API Gemini, Firebase AI Logic propose un ensemble de services pour simplifier le déploiement de fonctionnalités compatibles avec l'IA dans votre application et la préparer à la production:
Vérification de l'application
Firebase App Check protège les backends d'application contre les utilisations abusives en s'assurant que seuls les clients autorisés accèdent aux ressources. Il s'intègre aux services Google (y compris Firebase et Google Cloud) et aux backends personnalisés. App Check utilise Play Integrity pour vérifier que les requêtes proviennent de l'application authentique et d'un appareil non falsifié.
Remote Config
Au lieu de coder en dur le nom du modèle dans votre application, nous vous recommandons d'utiliser une variable contrôlée par le serveur à l'aide de Firebase Remote Config. Vous pouvez ainsi mettre à jour de manière dynamique le modèle utilisé par votre application sans avoir à déployer une nouvelle version de votre application ni à demander à vos utilisateurs de passer à une nouvelle version. Vous pouvez également utiliser Remote Config pour effectuer des tests A/B sur les modèles et les requêtes.
Surveillance de l'IA
Pour comprendre les performances de vos fonctionnalités compatibles avec l'IA, vous pouvez utiliser le tableau de bord de surveillance de l'IA dans la console Firebase. Vous obtiendrez des insights précieux sur les habitudes d'utilisation, les métriques de performances et les informations de débogage pour vos appels d'API Gemini.
Migrer vers la logique d'IA Firebase
Si vous utilisez déjà le SDK Vertex AI in Firebase dans votre application, consultez le guide de migration.