Modelos de IA do Gemini

As famílias de modelos Gemini Pro e Gemini Flash oferecem aos desenvolvedores Android recursos de IA multimodal, executando inferência na nuvem e processando entradas de imagem, áudio, vídeo e texto em apps Android.

  • Gemini Pro: o Gemini 2.5 Pro é o modelo de raciocínio de última geração do Google, capaz de raciocinar sobre problemas complexos em código, matemática e STEM, além de analisar grandes conjuntos de dados, bases de código e documentos usando um longo contexto.
  • Gemini Flash: os modelos Gemini Flash oferecem recursos de última geração e melhorias, incluindo velocidade superior, uso de ferramentas integradas e uma janela de contexto de 1 milhão de tokens.

Lógica de IA do Firebase

A lógica de IA do Firebase permite que os desenvolvedores adicionem a IA generativa do Google aos apps de forma segura e direta, simplificando o desenvolvimento, e oferece ferramentas e integrações de produtos para preparar a produção. Ele fornece SDKs do Android para integrar e chamar diretamente as APIs Gemini do código do cliente, simplificando o desenvolvimento ao eliminar a necessidade de um back-end.

Provedores de API

A lógica de IA do Firebase permite usar os seguintes provedores de API Gemini do Google: API Gemini para desenvolvedores e API Gemini da Vertex AI.

Ilustração que mostra um app Android usando o SDK do Firebase para Android
    se conectar ao Firebase na nuvem. A partir daí, a lógica de IA é integrada usando
    dois caminhos: a API Gemini Developer ou a Vertex AI da Plataforma Google Cloud,
    que aproveitam os modelos Gemini Pro e Flash.
Figura 1. Arquitetura de integração da lógica de IA do Firebase.

Confira as principais diferenças de cada provedor de API:

API Gemini Developer:

  • Comece a usar o nível sem custo financeiro sem custo financeiro sem precisar de informações de pagamento.
  • Faça upgrade para o nível pago da API Gemini Developer para dimensionar conforme sua base de usuários cresce.
  • Itere e teste comandos e até mesmo receba trechos de código usando o Google AI Studio.

API Vertex AI Gemini:

  • Controle granular sobre onde você acessa o modelo.
  • Ideal para desenvolvedores já integrados ao ecossistema da Vertex AI/Google Cloud.
  • Itere e teste comandos e até mesmo receba trechos de código usando o Vertex AI Studio.

A seleção do provedor de API adequado para seu aplicativo é baseada nas suas restrições comerciais e técnicas, além da familiaridade com a Vertex AI e o ecossistema do Google Cloud. A maioria dos desenvolvedores Android que estão começando a usar as integrações do Gemini Pro ou do Gemini Flash devem começar com a API Gemini Developer. Para alternar entre provedores, mude o parâmetro no construtor do modelo:

Kotlin

// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`
val model = Firebase.ai(backend = GenerativeBackend.googleAI())
    .generativeModel("gemini-2.0-flash")

val response = model.generateContent("Write a story about a magic backpack");
val output = response.text

Java

// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`
GenerativeModel firebaseAI = FirebaseAI.getInstance(GenerativeBackend.googleAI())
        .generativeModel("gemini-2.0-flash");

// Use the GenerativeModelFutures Java compatibility layer which offers
// support for ListenableFuture and Publisher APIs
GenerativeModelFutures model = GenerativeModelFutures.from(firebaseAI);

Content prompt = new Content.Builder()
    .addText("Write a story about a magic backpack.")
    .build();

ListenableFuture<GenerateContentResponse> response = model.generateContent(prompt);
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
    @Override
    public void onSuccess(GenerateContentResponse result) {
        String resultText = result.getText();
        [...]
    }

    @Override
    public void onFailure(Throwable t) {
        t.printStackTrace();
    }
}, executor);

Confira a lista completa de modelos de IA generativa disponíveis com suporte aos SDKs de cliente da IA do Firebase.

Serviços do Firebase

Além do acesso à API Gemini, a Firebase AI Logic oferece um conjunto de serviços para simplificar a implantação de recursos com tecnologia de IA no seu app e se preparar para a produção:

Verificação de apps

O Firebase App Check protege os back-ends do app contra abusos, garantindo que apenas clientes autorizados acessem os recursos. Ele se integra aos Serviços do Google (incluindo o Firebase e o Google Cloud) e aos back-ends personalizados. O App Check usa a Play Integrity para verificar se as solicitações vêm do app autêntico e de um dispositivo que não foi adulterado.

Remote Config

Em vez de programar o nome do modelo no app, recomendamos usar uma variável controlada pelo servidor com a Configuração remota do Firebase. Isso permite atualizar dinamicamente o modelo usado pelo app sem precisar implantar uma nova versão ou exigir que os usuários escolham uma nova versão. Você também pode usar a Configuração remota para testes A/B de modelos e comandos.

Monitoramento de IA

Para entender o desempenho dos recursos com tecnologia de IA, use o painel de monitoramento de IA no console do Firebase. Você vai receber insights valiosos sobre padrões de uso, métricas de desempenho e informações de depuração para suas chamadas de API Gemini.

Migrar para a lógica de IA do Firebase

Se você já usa o SDK da Vertex AI no Firebase no seu app, leia o guia de migração.