As famílias de modelos Gemini Pro e Gemini Flash oferecem aos desenvolvedores Android recursos de IA multimodal, executando inferência na nuvem e processando entradas de imagem, áudio, vídeo e texto em apps Android.
- Gemini Pro: o Gemini 2.5 Pro é o modelo de raciocínio de última geração do Google, capaz de raciocinar sobre problemas complexos em código, matemática e STEM, além de analisar grandes conjuntos de dados, bases de código e documentos usando um longo contexto.
- Gemini Flash: os modelos Gemini Flash oferecem recursos de última geração e melhorias, incluindo velocidade superior, uso de ferramentas integradas e uma janela de contexto de 1 milhão de tokens.
Lógica de IA do Firebase
A lógica de IA do Firebase permite que os desenvolvedores adicionem a IA generativa do Google aos apps de forma segura e direta, simplificando o desenvolvimento, e oferece ferramentas e integrações de produtos para preparar a produção. Ele fornece SDKs do Android para integrar e chamar diretamente as APIs Gemini do código do cliente, simplificando o desenvolvimento ao eliminar a necessidade de um back-end.
Provedores de API
A lógica de IA do Firebase permite usar os seguintes provedores de API Gemini do Google: API Gemini para desenvolvedores e API Gemini da Vertex AI.
Confira as principais diferenças de cada provedor de API:
- Comece a usar o nível sem custo financeiro sem custo financeiro sem precisar de informações de pagamento.
- Faça upgrade para o nível pago da API Gemini Developer para dimensionar conforme sua base de usuários cresce.
- Itere e teste comandos e até mesmo receba trechos de código usando o Google AI Studio.
- Controle granular sobre onde você acessa o modelo.
- Ideal para desenvolvedores já integrados ao ecossistema da Vertex AI/Google Cloud.
- Itere e teste comandos e até mesmo receba trechos de código usando o Vertex AI Studio.
A seleção do provedor de API adequado para seu aplicativo é baseada nas suas restrições comerciais e técnicas, além da familiaridade com a Vertex AI e o ecossistema do Google Cloud. A maioria dos desenvolvedores Android que estão começando a usar as integrações do Gemini Pro ou do Gemini Flash devem começar com a API Gemini Developer. Para alternar entre provedores, mude o parâmetro no construtor do modelo:
Kotlin
// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`
val model = Firebase.ai(backend = GenerativeBackend.googleAI())
.generativeModel("gemini-2.0-flash")
val response = model.generateContent("Write a story about a magic backpack");
val output = response.text
Java
// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`
GenerativeModel firebaseAI = FirebaseAI.getInstance(GenerativeBackend.googleAI())
.generativeModel("gemini-2.0-flash");
// Use the GenerativeModelFutures Java compatibility layer which offers
// support for ListenableFuture and Publisher APIs
GenerativeModelFutures model = GenerativeModelFutures.from(firebaseAI);
Content prompt = new Content.Builder()
.addText("Write a story about a magic backpack.")
.build();
ListenableFuture<GenerateContentResponse> response = model.generateContent(prompt);
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
@Override
public void onSuccess(GenerateContentResponse result) {
String resultText = result.getText();
[...]
}
@Override
public void onFailure(Throwable t) {
t.printStackTrace();
}
}, executor);
Confira a lista completa de modelos de IA generativa disponíveis com suporte aos SDKs de cliente da IA do Firebase.
Serviços do Firebase
Além do acesso à API Gemini, a Firebase AI Logic oferece um conjunto de serviços para simplificar a implantação de recursos com tecnologia de IA no seu app e se preparar para a produção:
Verificação de apps
O Firebase App Check protege os back-ends do app contra abusos, garantindo que apenas clientes autorizados acessem os recursos. Ele se integra aos Serviços do Google (incluindo o Firebase e o Google Cloud) e aos back-ends personalizados. O App Check usa a Play Integrity para verificar se as solicitações vêm do app autêntico e de um dispositivo que não foi adulterado.
Remote Config
Em vez de programar o nome do modelo no app, recomendamos usar uma variável controlada pelo servidor com a Configuração remota do Firebase. Isso permite atualizar dinamicamente o modelo usado pelo app sem precisar implantar uma nova versão ou exigir que os usuários escolham uma nova versão. Você também pode usar a Configuração remota para testes A/B de modelos e comandos.
Monitoramento de IA
Para entender o desempenho dos recursos com tecnologia de IA, use o painel de monitoramento de IA no console do Firebase. Você vai receber insights valiosos sobre padrões de uso, métricas de desempenho e informações de depuração para suas chamadas de API Gemini.
Migrar para a lógica de IA do Firebase
Se você já usa o SDK da Vertex AI no Firebase no seu app, leia o guia de migração.