Las familias de modelos Gemini Pro y Gemini Flash ofrecen a los desarrolladores de Android capacidades de IA multimodal, ejecutan inferencias en la nube y procesan entradas de imágenes, audio, video y texto en apps para Android.
- Gemini Pro: Gemini 2.5 Pro es el modelo de pensamiento de vanguardia de Google, capaz de razonar sobre problemas complejos en código, matemáticas y STEM, así como analizar grandes conjuntos de datos, bases de código y documentos con contexto largo.
- Gemini Flash: Los modelos de Gemini Flash ofrecen funciones de nueva generación y capacidades mejoradas, como una velocidad superior, el uso de herramientas integradas y una ventana de contexto de 1 millón de tokens.
Lógica de la IA de Firebase
Firebase AI Logic permite a los desarrolladores agregar de forma segura y directa la IA generativa de Google a sus apps, lo que simplifica el desarrollo y ofrece herramientas y integraciones de productos para que el producto esté listo para la producción. Proporciona SDKs de Android cliente para integrar y llamar directamente a las APIs de Gemini desde el código cliente, lo que simplifica el desarrollo, ya que elimina la necesidad de un backend.
Proveedores de API
La lógica de IA de Firebase te permite usar los siguientes proveedores de la API de Google Gemini: la API de Developer de Gemini y la API de Gemini de Vertex AI.
Estas son las principales diferencias de cada proveedor de API:
API para desarrolladores de Gemini:
- Comienza sin costo con un generoso nivel gratuito sin necesidad de información de pago.
- De manera opcional, puedes actualizar al nivel pagado de la API para desarrolladores de Gemini para escalar a medida que crece tu base de usuarios.
- Itera y experimenta con instrucciones, y obtén fragmentos de código con Google AI Studio.
- Control detallado sobre desde dónde accedes al modelo.
- Ideal para desarrolladores que ya están integrados en el ecosistema de Vertex AI/Google Cloud.
- Itera y experimenta con instrucciones, y obtén fragmentos de código con Vertex AI Studio.
La selección del proveedor de API adecuado para tu aplicación se basa en tus limitaciones técnicas y comerciales, y en tu conocimiento del ecosistema de Vertex AI y Google Cloud. La mayoría de los desarrolladores de Android que recién comienzan a usar las integraciones de Gemini Pro o Gemini Flash deben comenzar con la API para desarrolladores de Gemini. Para cambiar de proveedor, cambia el parámetro en el constructor del modelo:
Kotlin
// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`
val model = Firebase.ai(backend = GenerativeBackend.googleAI())
.generativeModel("gemini-2.0-flash")
val response = model.generateContent("Write a story about a magic backpack");
val output = response.text
Java
// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`
GenerativeModel firebaseAI = FirebaseAI.getInstance(GenerativeBackend.googleAI())
.generativeModel("gemini-2.0-flash");
// Use the GenerativeModelFutures Java compatibility layer which offers
// support for ListenableFuture and Publisher APIs
GenerativeModelFutures model = GenerativeModelFutures.from(firebaseAI);
Content prompt = new Content.Builder()
.addText("Write a story about a magic backpack.")
.build();
ListenableFuture<GenerateContentResponse> response = model.generateContent(prompt);
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
@Override
public void onSuccess(GenerateContentResponse result) {
String resultText = result.getText();
[...]
}
@Override
public void onFailure(Throwable t) {
t.printStackTrace();
}
}, executor);
Consulta la lista completa de los modelos de IA generativa disponibles que admiten los SDK cliente de Firebase AI Logic.
Servicios de Firebase
Además del acceso a la API de Gemini, Firebase AI Logic ofrece un conjunto de servicios para simplificar la implementación de funciones habilitadas por IA en tu app y prepararla para la producción:
Verificación de aplicación
La Verificación de aplicaciones de Firebase protege los backends de apps contra todo tipo de abusos, ya que garantiza que solo los clientes autorizados accedan a los recursos. Se integra con los servicios de Google (incluidos Firebase y Google Cloud) y backends personalizados. Verificación de aplicaciones usa Play Integrity para verificar que las solicitudes provengan de la app auténtica y de un dispositivo no adulterado.
Configuración remota
En lugar de codificar el nombre del modelo en tu app, te recomendamos que uses una variable controlada por el servidor con Firebase Remote Config. Esto te permite actualizar de forma dinámica el modelo que usa tu app sin tener que implementar una versión nueva de la app ni exigir que los usuarios elijan una versión nueva. También puedes usar Remote Config para probar A/B modelos y mensajes.
Supervisión de IA
Para comprender el rendimiento de tus funciones habilitadas por IA, puedes usar el panel de supervisión de IA en Firebase console. Obtendrás información valiosa sobre los patrones de uso, las métricas de rendimiento y la información de depuración para tus llamadas a la API de Gemini.
Cómo migrar a Firebase AI Logic
Si ya usas el SDK de Vertex AI en Firebase en tu app, lee la guía de migración.