Gemini Pro モデル ファミリーと Gemini Flash モデル ファミリーは、クラウドで推論を実行し、Android アプリで画像、音声、動画、テキストの入力を処理するマルチモーダル AI 機能を Android デベロッパーに提供します。
- Gemini Pro: Gemini 2.5 Pro は、Google の最先端の思考モデルです。コード、数学、STEM の複雑な問題の推論や、長いコンテキストを使用した大規模なデータセット、コードベース、ドキュメントの分析が可能です。
- Gemini Flash: Gemini Flash モデルは、優れた速度、組み込みツールの使用、100 万トークンのコンテキスト ウィンドウなど、次世代の機能と強化された機能を提供します。
Firebase AI ロジック
Firebase AI Logic を使用すると、デベロッパーは Google の生成 AI をアプリに安全かつ直接追加して開発を簡素化できます。また、ツールとプロダクトの統合により、本番環境への移行をスムーズに行うことができます。クライアント Android SDK を提供して、クライアント コードから Gemini API を直接統合して呼び出すことができます。これにより、バックエンドの必要性がなくなり、開発が簡素化されます。
API プロバイダ
Firebase AI Logic では、Gemini Developer API と Vertex AI Gemini API の Google Gemini API プロバイダを使用できます。
各 API プロバイダの主な違いは次のとおりです。
- 充実した無料枠を無料で利用できます。お支払い情報は不要です。
- 必要に応じて、Gemini Developer API の有料階層にアップグレードして、ユーザーベースの増加に合わせてスケーリングします。
- Google AI Studio を使用して、プロンプトを反復処理してテストし、コード スニペットを取得することもできます。
- モデルにアクセスする場所をきめ細かく制御できます。
- Vertex AI/Google Cloud エコシステムにすでに組み込まれているデベロッパーに最適です。
- Vertex AI Studio を使用してプロンプトを反復処理してテストし、コード スニペットを取得することもできます。
アプリケーションに適した API プロバイダを選択するには、ビジネスと技術の制約、Vertex AI と Google Cloud エコシステムの知識に基づいて判断します。Gemini Pro または Gemini Flash の統合を初めて使用するほとんどの Android デベロッパーは、Gemini Developer API から始めることをおすすめします。プロバイダを切り替えるには、モデルのコンストラクタでパラメータを変更します。
Kotlin
// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`
val model = Firebase.ai(backend = GenerativeBackend.googleAI())
.generativeModel("gemini-2.0-flash")
val response = model.generateContent("Write a story about a magic backpack");
val output = response.text
Java
// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`
GenerativeModel firebaseAI = FirebaseAI.getInstance(GenerativeBackend.googleAI())
.generativeModel("gemini-2.0-flash");
// Use the GenerativeModelFutures Java compatibility layer which offers
// support for ListenableFuture and Publisher APIs
GenerativeModelFutures model = GenerativeModelFutures.from(firebaseAI);
Content prompt = new Content.Builder()
.addText("Write a story about a magic backpack.")
.build();
ListenableFuture<GenerateContentResponse> response = model.generateContent(prompt);
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
@Override
public void onSuccess(GenerateContentResponse result) {
String resultText = result.getText();
[...]
}
@Override
public void onFailure(Throwable t) {
t.printStackTrace();
}
}, executor);
Firebase AI Logic クライアント SDK でサポートされている使用可能な生成 AI モデルのリストをご覧ください。
Firebase サービス
Firebase AI Logic には、Gemini API へのアクセスに加えて、AI 対応機能をアプリに簡単にデプロイして本番環境に対応するための一連のサービスが用意されています。
アプリのチェック
Firebase App Check は、承認済みのクライアントのみがリソースにアクセスできるようにすることで、アプリのバックエンドを不正使用から保護します。Google サービス(Firebase や Google Cloud など)とカスタム バックエンドと統合できます。App Check は Play Integrity を使用して、リクエストの発信元が正規のアプリであり、改ざんされていないデバイスであることを確認します。
Remote Config
アプリにモデル名をハードコードするのではなく、Firebase Remote Config を使用してサーバー制御変数を使用することをおすすめします。これにより、新しいバージョンのアプリをデプロイしたり、ユーザーに新しいバージョンを取得するよう要求したりすることなく、アプリで使用するモデルを動的に更新できます。また、Remote Config を使用してモデルとプロンプトをA/B テストすることもできます。
AI モニタリング
AI 対応機能のパフォーマンスを確認するには、Firebase コンソールの AI モニタリング ダッシュボードを使用します。Gemini API 呼び出しの使用パターン、パフォーマンス指標、デバッグ情報に関する貴重な分析情報を取得できます。
Firebase AI Logic に移行する
アプリで Vertex AI in Firebase SDK をすでに使用している場合は、移行ガイドをご覧ください。