Modelli di IA di Gemini

Le famiglie di modelli Gemini Pro e Gemini Flash offrono agli sviluppatori Android funzionalità di IA multimodale, eseguono l'inferenza nel cloud ed elaborano input di immagini, audio, video e testo nelle app per Android.

  • Gemini Pro: Gemini 2.5 Pro è il modello di pensiero all'avanguardia di Google, in grado di ragionare su problemi complessi di codice, matematica e discipline STEM, nonché di analizzare set di dati, codebase e documenti di grandi dimensioni utilizzando un contesto lungo.
  • Gemini Flash: i modelli Gemini Flash offrono funzionalità di nuova generazione e funzionalità migliorate, tra cui velocità superiore, utilizzo di strumenti integrati e una finestra contestuale da 1 milione di token.

Logica di Firebase AI

Firebase AI Logic consente agli sviluppatori di aggiungere in modo sicuro e diretto l'IA generativa di Google alle loro app, semplificando lo sviluppo, e offre strumenti e integrazioni di prodotti per la preparazione alla produzione. Fornisce SDK Android client per integrare e chiamare direttamente le API Gemini dal codice client, semplificando lo sviluppo eliminando la necessità di un backend.

Fornitori di API

La logica AI di Firebase ti consente di utilizzare i seguenti provider dell'API Gemini di Google: API Gemini per sviluppatori e API Gemini di Vertex AI.

Illustrazione che mostra un'app per Android che utilizza l'SDK Firebase per Android per connettersi a Firebase nel cloud. Da qui, la logica AI si integra utilizzando
    due percorsi: l'API Gemini Developer o Vertex AI della piattaforma Google Cloud,
    entrambi che sfruttano i modelli Gemini Pro e Flash.
Figura 1. Architettura di integrazione della logica AI di Firebase.

Ecco le differenze principali per ciascun provider API:

API Gemini Developer:

  • Inizia senza costi con un generoso livello senza costi senza dati di pagamento obbligatori.
  • Se vuoi, esegui l'upgrade al livello a pagamento dell'API Gemini Developer per eseguire il ridimensionamento man mano che la tua base utenti cresce.
  • Esegui l'iterazione e sperimenta i prompt e persino ottieni snippet di codice utilizzando Google AI Studio.

API Gemini di Vertex AI:

  • Controllo granulare su dove accedi al modello.
  • Ideale per gli sviluppatori già integrati nell'ecosistema Vertex AI/Google Cloud.
  • Esegui l'iterazione e sperimenta i prompt e persino ottieni snippet di codice utilizzando Vertex AI Studio.

La scelta del fornitore di API appropriato per la tua applicazione si basa sui vincoli tecnici e aziendali e sulla familiarità con l'ecosistema Vertex AI e Google Cloud. La maggior parte degli sviluppatori Android che stanno appena iniziando a utilizzare le integrazioni di Gemini Pro o Gemini Flash dovrebbe iniziare con l'API Gemini per gli sviluppatori. Per passare da un fornitore all'altro, modifica il parametro nel constructor del modello:

Kotlin

// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`
val model = Firebase.ai(backend = GenerativeBackend.googleAI())
    .generativeModel("gemini-2.0-flash")

val response = model.generateContent("Write a story about a magic backpack");
val output = response.text

Java

// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`
GenerativeModel firebaseAI = FirebaseAI.getInstance(GenerativeBackend.googleAI())
        .generativeModel("gemini-2.0-flash");

// Use the GenerativeModelFutures Java compatibility layer which offers
// support for ListenableFuture and Publisher APIs
GenerativeModelFutures model = GenerativeModelFutures.from(firebaseAI);

Content prompt = new Content.Builder()
    .addText("Write a story about a magic backpack.")
    .build();

ListenableFuture<GenerateContentResponse> response = model.generateContent(prompt);
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
    @Override
    public void onSuccess(GenerateContentResponse result) {
        String resultText = result.getText();
        [...]
    }

    @Override
    public void onFailure(Throwable t) {
        t.printStackTrace();
    }
}, executor);

Consulta l'elenco completo dei modelli di IA generativa disponibili supportati dagli SDK client Firebase AI Logic.

Servizi Firebase

Oltre all'accesso all'API Gemini, Firebase AI Logic offre un insieme di servizi per semplificare il deployment di funzionalità basate sull'IA nella tua app e prepararti alla produzione:

Controllo applicazioni

Firebase App Check protegge i backend delle app da comportamenti illeciti assicurando che solo i client autorizzati accedano alle risorse. Si integra con i servizi Google (inclusi Firebase e Google Cloud) e con i backend personalizzati. Controllo app utilizza Play Integrity per verificare che le richieste provengano dall'app autentica e da un dispositivo non manomesso.

Remote Config

Anziché codificare il nome del modello nell'app, ti consigliamo di utilizzare una variabile controllata dal server tramite Firebase Remote Config. In questo modo, puoi aggiornare dinamicamente il modello utilizzato dalla tua app senza dover eseguire il deployment di una nuova versione dell'app o richiedere agli utenti di installarla. Puoi anche utilizzare Remote Config per eseguire test A/B su modelli e prompt.

Monitoraggio dell'IA

Per comprendere il rendimento delle funzionalità basate sull'IA, puoi utilizzare la dashboard di monitoraggio dell'IA all'interno della console Firebase. Riceverai informazioni preziose su pattern di utilizzo, metriche sul rendimento e informazioni di debug per le chiamate all'API Gemini.

Eseguire la migrazione a Firebase AI Logic

Se utilizzi già l'SDK Vertex AI in Firebase nella tua app, consulta la guida alla migrazione.