Modelos de IA do Gemini

As famílias de modelos Gemini Pro e Gemini Flash oferecem aos desenvolvedores do Android recursos de IA multimodal, executando inferência na nuvem e processando entradas de imagem, áudio, vídeo e texto em apps Android.

  • Gemini Pro: o Gemini 2.5 Pro é o modelo de raciocínio de última geração do Google, capaz de resolver problemas complexos em programação, matemática e STEM, além de analisar grandes conjuntos de dados, bases de código e documentos usando contexto longo.
  • Gemini Flash: os modelos Gemini Flash oferecem recursos de última geração e capacidades aprimoradas, incluindo velocidade superior, uso de ferramentas integradas e uma janela de contexto de 1 milhão de tokens.

Firebase AI Logic

O Firebase AI Logic permite que os desenvolvedores adicionem a IA generativa do Google aos apps de forma segura e direta, simplificando o desenvolvimento. Além disso, ele oferece ferramentas e integrações de produtos para uma preparação de produção bem-sucedida. Ele fornece SDKs Android de cliente para integrar e chamar diretamente a API Gemini do código do cliente, simplificando o desenvolvimento ao eliminar a necessidade de um back-end.

Provedores de API

Com o Firebase AI Logic, você pode usar os seguintes provedores da API Google Gemini: API Gemini Developer e API Gemini da Vertex AI.

Ilustração que mostra um app Android usando o SDK do Firebase para Android
    para se conectar ao Firebase na nuvem. A partir daí, a lógica de IA se integra usando
    dois caminhos: a API Gemini para desenvolvedores ou a Vertex AI do Google Cloud Platform,
    ambas aproveitando os modelos Gemini Pro e Flash.
Figura 1. Arquitetura de integração do Firebase AI Logic.

Confira as principais diferenças para cada provedor de API:

API Gemini Developer:

  • Comece sem custo financeiro com um nível sem custo financeiro generoso sem precisar informar dados de pagamento.
  • Se quiser, faça upgrade para o nível pago da API Gemini Developer e aumente a escala à medida que sua base de usuários cresce.
  • Itere e teste comandos e até receba trechos de código usando o Google AI Studio.

API Gemini da Vertex AI:

  • Controle granular sobre onde você acessa o modelo.
  • Ideal para desenvolvedores já inseridos no ecossistema da Vertex AI/Google Cloud.
  • Itere e teste comandos e até receba trechos de código usando o Vertex AI Studio.

A escolha do provedor de API adequado para seu aplicativo se baseia nas restrições comerciais e técnicas e na familiaridade com o ecossistema da Vertex AI e do Google Cloud. A maioria dos desenvolvedores Android que estão começando a usar as integrações do Gemini Pro ou do Gemini Flash deve começar com a API Gemini Developer. Para mudar de provedor, basta mudar o parâmetro no construtor do modelo:

Kotlin

// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`
val model = Firebase.ai(backend = GenerativeBackend.googleAI())
    .generativeModel("gemini-2.5-flash")

val response = model.generateContent("Write a story about a magic backpack");
val output = response.text

Java

// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`
GenerativeModel firebaseAI = FirebaseAI.getInstance(GenerativeBackend.googleAI())
        .generativeModel("gemini-2.5-flash");

// Use the GenerativeModelFutures Java compatibility layer which offers
// support for ListenableFuture and Publisher APIs
GenerativeModelFutures model = GenerativeModelFutures.from(firebaseAI);

Content prompt = new Content.Builder()
    .addText("Write a story about a magic backpack.")
    .build();

ListenableFuture<GenerateContentResponse> response = model.generateContent(prompt);
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
    @Override
    public void onSuccess(GenerateContentResponse result) {
        String resultText = result.getText();
        [...]
    }

    @Override
    public void onFailure(Throwable t) {
        t.printStackTrace();
    }
}, executor);

Confira a lista completa de modelos de IA generativa disponíveis compatíveis com os SDKs de cliente do Firebase AI Logic.

Serviços do Firebase

Além do acesso à API Gemini, o Firebase AI Logic oferece um conjunto de serviços para simplificar a implantação de recursos com tecnologia de IA no seu app e se preparar para a produção:

Verificação de apps

O Firebase App Check protege os back-ends de apps contra abusos garantindo que apenas clientes autorizados acessem os recursos. Ele se integra aos Serviços do Google (incluindo Firebase e Google Cloud) e a back-ends personalizados. O App Check usa a Play Integrity para verificar se as solicitações vêm do app autêntico e de um dispositivo não adulterado.

Remote Config

Em vez de codificar o nome do modelo no app, recomendamos usar uma variável controlada pelo servidor com a Configuração remota do Firebase. Isso permite atualizar dinamicamente o modelo usado pelo app sem precisar implantar uma nova versão ou pedir que os usuários baixem uma nova versão. Você também pode usar a Configuração remota para testar modelos e comandos A/B.

Monitoramento de IA

Para entender o desempenho dos seus recursos com tecnologia de IA, use o painel de monitoramento de IA no console do Firebase. Você vai receber insights valiosos sobre padrões de uso, métricas de desempenho e informações de depuração para suas chamadas da API Gemini.

Migrar para o Firebase AI Logic

Se você já estiver usando o SDK da Vertex AI no Firebase no seu app, leia o guia de migração.