Modelli di IA di Gemini

Le famiglie di modelli Gemini Pro e Gemini Flash offrono agli sviluppatori Android funzionalità di AI multimodale, eseguendo l'inferenza nel cloud ed elaborando immagini, audio, video e input di testo nelle app per Android.

  • Gemini Pro: Gemini 2.5 Pro è il modello di ragionamento all'avanguardia di Google, in grado di risolvere problemi complessi in codice, matematica e STEM, nonché analizzare grandi set di dati, codebase e documenti utilizzando un contesto lungo.
  • Gemini Flash: i modelli Gemini Flash offrono funzionalità di nuova generazione e capacità migliorate, tra cui velocità superiore, utilizzo di strumenti integrati e una finestra contestuale da 1 milione di token.

Firebase AI Logic

Firebase AI Logic consente agli sviluppatori di aggiungere in modo sicuro e diretto l'AI generativa di Google alle loro app, semplificando lo sviluppo e offrendo strumenti e integrazioni di prodotti per una produzione pronta all'uso. Fornisce SDK Android client per integrare e chiamare direttamente l'API Gemini dal codice client, semplificando lo sviluppo eliminando la necessità di un backend.

Fornitori di API

Firebase AI Logic ti consente di utilizzare i seguenti provider dell'API Google Gemini: l'API Gemini Developer e l'API Vertex AI Gemini.

Illustrazione che mostra un'app per Android che utilizza l'SDK Firebase per Android
    per connettersi a Firebase nel cloud. Da qui, la logica dell'AI si integra utilizzando
    due percorsi: l'API Gemini Developer o Vertex AI di Google Cloud,
    entrambi sfruttano i modelli Gemini Pro e Flash.
Figura 1. Architettura di integrazione di Firebase AI Logic.

Ecco le differenze principali per ogni fornitore di API:

API Gemini Developer:

  • Inizia senza costi con un livello senza costi con molti vantaggi senza che siano necessari dati di pagamento.
  • Se vuoi, esegui l'upgrade al livello a pagamento dell'API Gemini Developer per scalare man mano che la tua base utenti cresce.
  • Esegui l'iterazione e sperimenta con i prompt e ottieni anche snippet di codice utilizzando Google AI Studio.

API Vertex AI Gemini:

  • Controllo granulare di dove accedi al modello.
  • Ideale per gli sviluppatori già integrati nell'ecosistema Vertex AI/Google Cloud.
  • Itera e sperimenta con i prompt e ottieni anche snippet di codice utilizzando Vertex AI Studio.

La selezione del provider API appropriato per la tua applicazione si basa sui tuoi vincoli aziendali e tecnici e sulla familiarità con l'ecosistema Vertex AI e Google Cloud. La maggior parte degli sviluppatori Android che iniziano a utilizzare le integrazioni di Gemini Pro o Gemini Flash deve iniziare con l'API Gemini Developer. Il passaggio da un fornitore all'altro viene eseguito modificando il parametro nel costruttore del modello:

Kotlin

// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`
val model = Firebase.ai(backend = GenerativeBackend.googleAI())
    .generativeModel("gemini-2.5-flash")

val response = model.generateContent("Write a story about a magic backpack");
val output = response.text

Java

// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`
GenerativeModel firebaseAI = FirebaseAI.getInstance(GenerativeBackend.googleAI())
        .generativeModel("gemini-2.5-flash");

// Use the GenerativeModelFutures Java compatibility layer which offers
// support for ListenableFuture and Publisher APIs
GenerativeModelFutures model = GenerativeModelFutures.from(firebaseAI);

Content prompt = new Content.Builder()
    .addText("Write a story about a magic backpack.")
    .build();

ListenableFuture<GenerateContentResponse> response = model.generateContent(prompt);
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
    @Override
    public void onSuccess(GenerateContentResponse result) {
        String resultText = result.getText();
        [...]
    }

    @Override
    public void onFailure(Throwable t) {
        t.printStackTrace();
    }
}, executor);

Consulta l'elenco completo dei modelli di AI generativa disponibili supportati dagli SDK client di Firebase AI Logic.

Servizi Firebase

Oltre all'accesso all'API Gemini, Firebase AI Logic offre un insieme di servizi per semplificare il deployment di funzionalità basate sull'AI nella tua app e prepararti per la produzione:

Controllo applicazioni

Firebase App Check protegge i backend delle app da comportamenti illeciti garantendo che solo i client autorizzati accedano alle risorse. Si integra con i servizi Google (inclusi Firebase e Google Cloud) e con i backend personalizzati. App Check utilizza Play Integrity per verificare che le richieste provengano dall'app autentica e da un dispositivo non manomesso.

Remote Config

Anziché codificare il nome del modello nell'app, ti consigliamo di utilizzare una variabile controllata dal server utilizzando Firebase Remote Config. In questo modo puoi aggiornare dinamicamente il modello utilizzato dalla tua app senza dover eseguire il deployment di una nuova versione dell'app o richiedere agli utenti di scaricare una nuova versione. Puoi anche utilizzare Remote Config per eseguire test A/B su modelli e prompt.

Monitoraggio AI

Per capire il rendimento delle funzionalità basate sull'AI, puoi utilizzare la dashboard di monitoraggio dell'AI nella console Firebase. Riceverai informazioni preziose su pattern di utilizzo, metriche di rendimento e debug per le tue chiamate all'API Gemini.

Eseguire la migrazione a Firebase AI Logic

Se utilizzi già l'SDK Vertex AI in Firebase nella tua app, leggi la guida alla migrazione.