Gemini Pro 和 Gemini Flash 模型系列为 Android 开发者提供多模态 AI 功能,可在云端运行推理,并在 Android 应用中处理图片、音频、视频和文本输入内容。
- Gemini Pro:Gemini 2.5 Pro 是 Google 最先进的思维模型,能够使用长上下文对代码、数学和 STEM 领域的复杂问题进行推理,并分析大型数据集、代码库和文档。
- Gemini Flash:Gemini Flash 模型具备新一代特性和改进功能,包括卓越的速度、内置工具使用和 100 万个 token 的上下文窗口。
Firebase AI Logic
Firebase AI Logic 使开发者能够安全地将 Google 的生成式 AI 直接添加到应用中,从而简化开发流程,并提供工具和产品集成,以确保成功做好生产准备。它提供客户端 Android SDK,可直接从客户端代码集成和调用 Gemini API,从而无需后端,简化开发流程。
API 提供方
借助 Firebase AI Logic,您可以使用以下 Google Gemini API 提供程序:Gemini Developer API 和 Vertex AI Gemini API。
以下是各个 API 提供商的主要区别:
- 通过宽裕的免费层级免费开始使用,无需提供付款信息。
- 您可以选择升级到 Gemini Developer API 的付费层级,以便随着用户群的增长而进行扩展。
- 使用 Google AI Studio 迭代和实验提示,甚至获取代码段。
- 可精细控制访问模型的位置。
- 非常适合已融入 Vertex AI/Google Cloud 生态系统的开发者。
- 使用 Vertex AI Studio 迭代和实验提示,甚至获取代码段。
为应用选择合适的 API 提供方取决于您的业务和技术限制,以及您对 Vertex AI 和 Google Cloud 生态系统的熟悉程度。大多数刚开始使用 Gemini Pro 或 Gemini Flash 集成的 Android 开发者都应先从 Gemini Developer API 开始。 通过更改模型构造函数中的参数,即可在提供方之间切换:
Kotlin
// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`
val model = Firebase.ai(backend = GenerativeBackend.googleAI())
.generativeModel("gemini-2.5-flash")
val response = model.generateContent("Write a story about a magic backpack");
val output = response.text
Java
// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`
GenerativeModel firebaseAI = FirebaseAI.getInstance(GenerativeBackend.googleAI())
.generativeModel("gemini-2.5-flash");
// Use the GenerativeModelFutures Java compatibility layer which offers
// support for ListenableFuture and Publisher APIs
GenerativeModelFutures model = GenerativeModelFutures.from(firebaseAI);
Content prompt = new Content.Builder()
.addText("Write a story about a magic backpack.")
.build();
ListenableFuture<GenerateContentResponse> response = model.generateContent(prompt);
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
@Override
public void onSuccess(GenerateContentResponse result) {
String resultText = result.getText();
[...]
}
@Override
public void onFailure(Throwable t) {
t.printStackTrace();
}
}, executor);
如需查看 Firebase AI Logic 客户端 SDK 支持的生成式 AI 模型的完整列表,请参阅相关文档。
Firebase 服务
除了可访问 Gemini API 之外,Firebase AI Logic 还提供了一组服务,可简化 AI 赋能功能的部署,让您的应用做好投入生产的准备:
App Check
Firebase App Check 可确保只有经过授权的客户端才能访问资源,从而保护应用后端免遭滥用。它可与 Google 服务(包括 Firebase 和 Google Cloud)和自定义后端集成。App Check 使用 Play Integrity 来验证请求是否来自正版应用和未经篡改的设备。
Remote Config
我们建议您使用 Firebase Remote Config,通过服务器控制的变量来指定模型名称,而不是在应用中对模型名称进行硬编码。这样一来,您就可以动态更新应用所用的模型,而无需部署应用的新版本或要求用户获取新版本。您还可以使用 Remote Config 对模型和提示进行 A/B 测试。
AI 监控
如需了解启用 AI 的功能的表现,您可以使用 Firebase 控制台中的 AI 监控信息中心。您将获得有关 Gemini API 调用的使用模式、性能指标和调试信息的宝贵数据分析。
迁移到 Firebase AI Logic
如果您已在应用中使用 Vertex AI in Firebase SDK,请参阅迁移指南。