Modelos de IA de Gemini

Las familias de modelos Gemini Pro y Gemini Flash ofrecen a los desarrolladores de Android capacidades de IA multimodales, ejecutan inferencias en la nube y procesan entradas de imágenes, audio, video y texto en apps para Android.

  • Gemini Pro: Gemini 2.5 Pro es el modelo de pensamiento de vanguardia de Google, capaz de razonar sobre problemas complejos en código, matemáticas y CTIM, así como analizar grandes conjuntos de datos, bases de código y documentos con un contexto extenso.
  • Gemini Flash: Los modelos de Gemini Flash ofrecen funciones de nueva generación y capacidades mejoradas, como velocidad superior, uso de herramientas integradas y una ventana de contexto de 1 millón de tokens.

Firebase AI Logic

Firebase AI Logic permite que los desarrolladores agreguen de forma segura y directa la IA generativa de Google a sus apps, lo que simplifica el desarrollo, y ofrece herramientas e integraciones de productos para una preparación exitosa para la producción. Proporciona SDKs de Android para clientes que permiten integrar y llamar directamente a la API de Gemini desde el código del cliente, lo que simplifica el desarrollo al eliminar la necesidad de un backend.

Proveedores de APIs

Firebase AI Logic te permite usar los siguientes proveedores de la API de Gemini de Google: la API de Gemini Developer y la API de Gemini de Vertex AI.

Ilustración que muestra una app para Android que usa el SDK de Firebase para Android para conectarse a Firebase en la nube. A partir de ahí, la lógica de la IA se integra a través de dos rutas: la API de Gemini Developer o Vertex AI de Google Cloud Platform, ambas aprovechando los modelos de Gemini Pro y Flash.
Figura 1: Arquitectura de integración de Firebase AI Logic.

Estas son las principales diferencias para cada proveedor de la API:

API para desarrolladores de Gemini:

  • Comienza sin costo con un generoso nivel gratuito sin necesidad de ingresar información de pago.
  • De manera opcional, actualiza al nivel pagado de la API de Gemini Developer para escalar a medida que crezca tu base de usuarios.
  • Realiza iteraciones y experimenta con instrucciones, y obtén fragmentos de código con Google AI Studio.

API de Gemini de Vertex AI:

  • Control detallado sobre dónde accedes al modelo
  • Ideal para desarrolladores que ya están integrados en el ecosistema de Vertex AI o Google Cloud
  • Itera y experimenta con instrucciones, y obtén fragmentos de código con Vertex AI Studio.

La selección del proveedor de API adecuado para tu aplicación se basa en tus limitaciones comerciales y técnicas, y en tu familiaridad con el ecosistema de Vertex AI y Google Cloud. La mayoría de los desarrolladores de Android que recién comienzan a usar las integraciones de Gemini Pro o Gemini Flash deberían comenzar con la API de Gemini Developer. Para cambiar de proveedor, debes cambiar el parámetro en el constructor del modelo:

Kotlin

// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`
val model = Firebase.ai(backend = GenerativeBackend.googleAI())
    .generativeModel("gemini-2.5-flash")

val response = model.generateContent("Write a story about a magic backpack");
val output = response.text

Java

// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`
GenerativeModel firebaseAI = FirebaseAI.getInstance(GenerativeBackend.googleAI())
        .generativeModel("gemini-2.5-flash");

// Use the GenerativeModelFutures Java compatibility layer which offers
// support for ListenableFuture and Publisher APIs
GenerativeModelFutures model = GenerativeModelFutures.from(firebaseAI);

Content prompt = new Content.Builder()
    .addText("Write a story about a magic backpack.")
    .build();

ListenableFuture<GenerateContentResponse> response = model.generateContent(prompt);
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
    @Override
    public void onSuccess(GenerateContentResponse result) {
        String resultText = result.getText();
        [...]
    }

    @Override
    public void onFailure(Throwable t) {
        t.printStackTrace();
    }
}, executor);

Consulta la lista completa de modelos de IA generativa disponibles compatibles con los SDKs cliente de Firebase AI Logic.

Servicios de Firebase

Además del acceso a la API de Gemini, Firebase AI Logic ofrece un conjunto de servicios para simplificar la implementación de funciones potenciadas por IA en tu app y prepararte para la producción:

Verificación de aplicación

La Verificación de aplicaciones de Firebase protege los backends de las apps contra abusos, ya que garantiza que solo los clientes autorizados accedan a los recursos. Se integra con los servicios de Google (incluidos Firebase y Google Cloud) y los backends personalizados. App Check usa Play Integrity para verificar que las solicitudes provengan de la app auténtica y de un dispositivo no adulterado.

Configuración remota

En lugar de codificar de forma rígida el nombre del modelo en tu app, te recomendamos que uses una variable controlada por el servidor con Firebase Remote Config. Esto te permite actualizar de forma dinámica el modelo que usa tu app sin tener que implementar una versión nueva ni requerir que los usuarios la descarguen. También puedes usar Remote Config para realizar pruebas A/B de modelos y mensajes.

Supervisión de la IA

Para comprender el rendimiento de tus funciones potenciadas por IA, puedes usar el panel de supervisión de IA en Firebase console. Obtendrás estadísticas valiosas sobre los patrones de uso, las métricas de rendimiento y la información de depuración de tus llamadas a la API de Gemini.

Migra a Firebase AI Logic

Si ya usas el SDK de Vertex AI in Firebase en tu app, lee la guía de migración.