As famílias de modelos Gemini Pro e Gemini Flash oferecem aos desenvolvedores do Android recursos de IA multimodal, executando inferência na nuvem e processando entradas de imagem, áudio, vídeo e texto em apps Android.
- Gemini Pro: o Gemini 2.5 Pro é o modelo de raciocínio de última geração do Google, capaz de resolver problemas complexos em programação, matemática e STEM, além de analisar grandes conjuntos de dados, bases de código e documentos usando contexto longo.
- Gemini Flash: os modelos Gemini Flash oferecem recursos de última geração e capacidades aprimoradas, incluindo velocidade superior, uso de ferramentas integradas e uma janela de contexto de 1 milhão de tokens.
Firebase AI Logic
O Firebase AI Logic permite que os desenvolvedores adicionem a IA generativa do Google aos apps de forma segura e direta, simplificando o desenvolvimento. Além disso, ele oferece ferramentas e integrações de produtos para uma preparação de produção bem-sucedida. Ele fornece SDKs Android de cliente para integrar e chamar diretamente a API Gemini do código do cliente, simplificando o desenvolvimento ao eliminar a necessidade de um back-end.
Provedores de API
Com o Firebase AI Logic, você pode usar os seguintes provedores da API Google Gemini: API Gemini Developer e API Gemini da Vertex AI.
Confira as principais diferenças para cada provedor de API:
- Comece sem custo financeiro com um nível sem custo financeiro generoso sem precisar informar dados de pagamento.
- Se quiser, faça upgrade para o nível pago da API Gemini Developer e aumente a escala à medida que sua base de usuários cresce.
- Itere e teste comandos e até receba trechos de código usando o Google AI Studio.
- Controle granular sobre onde você acessa o modelo.
- Ideal para desenvolvedores já inseridos no ecossistema da Vertex AI/Google Cloud.
- Itere e teste comandos e até receba trechos de código usando o Vertex AI Studio.
A escolha do provedor de API adequado para seu aplicativo se baseia nas restrições comerciais e técnicas e na familiaridade com o ecossistema da Vertex AI e do Google Cloud. A maioria dos desenvolvedores Android que estão começando a usar as integrações do Gemini Pro ou do Gemini Flash deve começar com a API Gemini Developer. Para mudar de provedor, basta mudar o parâmetro no construtor do modelo:
Kotlin
// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`
val model = Firebase.ai(backend = GenerativeBackend.googleAI())
.generativeModel("gemini-2.5-flash")
val response = model.generateContent("Write a story about a magic backpack");
val output = response.text
Java
// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`
GenerativeModel firebaseAI = FirebaseAI.getInstance(GenerativeBackend.googleAI())
.generativeModel("gemini-2.5-flash");
// Use the GenerativeModelFutures Java compatibility layer which offers
// support for ListenableFuture and Publisher APIs
GenerativeModelFutures model = GenerativeModelFutures.from(firebaseAI);
Content prompt = new Content.Builder()
.addText("Write a story about a magic backpack.")
.build();
ListenableFuture<GenerateContentResponse> response = model.generateContent(prompt);
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
@Override
public void onSuccess(GenerateContentResponse result) {
String resultText = result.getText();
[...]
}
@Override
public void onFailure(Throwable t) {
t.printStackTrace();
}
}, executor);
Confira a lista completa de modelos de IA generativa disponíveis compatíveis com os SDKs de cliente do Firebase AI Logic.
Serviços do Firebase
Além do acesso à API Gemini, o Firebase AI Logic oferece um conjunto de serviços para simplificar a implantação de recursos com tecnologia de IA no seu app e se preparar para a produção:
Verificação de apps
O Firebase App Check protege os back-ends de apps contra abusos garantindo que apenas clientes autorizados acessem os recursos. Ele se integra aos Serviços do Google (incluindo Firebase e Google Cloud) e a back-ends personalizados. O App Check usa a Play Integrity para verificar se as solicitações vêm do app autêntico e de um dispositivo não adulterado.
Remote Config
Em vez de codificar o nome do modelo no app, recomendamos usar uma variável controlada pelo servidor com a Configuração remota do Firebase. Isso permite atualizar dinamicamente o modelo usado pelo app sem precisar implantar uma nova versão ou pedir que os usuários baixem uma nova versão. Você também pode usar a Configuração remota para testar modelos e comandos A/B.
Monitoramento de IA
Para entender o desempenho dos seus recursos com tecnologia de IA, use o painel de monitoramento de IA no console do Firebase. Você vai receber insights valiosos sobre padrões de uso, métricas de desempenho e informações de depuração para suas chamadas da API Gemini.
Migrar para o Firebase AI Logic
Se você já estiver usando o SDK da Vertex AI no Firebase no seu app, leia o guia de migração.