Семейства моделей Gemini Pro и Gemini Flash предлагают разработчикам Android-приложений возможности мультимодального искусственного интеллекта, запуская логический вывод в облаке и обрабатывая входные данные изображений, аудио, видео и текста в приложениях Android.
- Gemini Pro : Gemini 2.5 Pro — это современная модель мышления от Google, способная рассуждать о сложных проблемах в коде, математике и STEM, а также анализировать большие наборы данных, кодовые базы и документы, используя длинный контекст.
- Gemini Flash : модели Gemini Flash обладают функциями следующего поколения и улучшенными возможностями, включая превосходную скорость, использование встроенных инструментов и контекстное окно токенов объемом 1 МБ.
Логика искусственного интеллекта Firebase
Firebase AI Logic позволяет разработчикам безопасно и напрямую добавлять генеративный ИИ Google в свои приложения, упрощая разработку, и предлагает инструменты и интеграции продуктов для успешной готовности к производству. Он предоставляет клиентские SDK Android для прямой интеграции и вызова API Gemini из клиентского кода, упрощая разработку, устраняя необходимость в бэкэнде.
API-провайдеры
Firebase AI Logic позволяет использовать следующих поставщиков API Google Gemini: Gemini Developer API и Vertex AI Gemini API .
Вот основные отличия каждого поставщика API:
- Начните бесплатно с щедрым бесплатным уровнем, не требующим предоставления платежной информации.
- При желании вы можете перейти на платный уровень API разработчика Gemini, чтобы масштабировать его по мере роста вашей пользовательской базы.
- Повторяйте и экспериментируйте с подсказками и даже получайте фрагменты кода с помощью Google AI Studio .
- Детальный контроль над тем, где вы получаете доступ к модели .
- Идеально подходит для разработчиков, уже внедренных в экосистему Vertex AI/Google Cloud.
- Повторяйте и экспериментируйте с подсказками и даже получайте фрагменты кода с помощью Vertex AI Studio .
Выбор подходящего поставщика API для вашего приложения зависит от ваших деловых и технических ограничений, а также знакомства с экосистемой Vertex AI и Google Cloud. Большинству разработчиков Android, только начинающих работу с интеграциями Gemini Pro или Gemini Flash, следует начать с API разработчика Gemini. Переключение между поставщиками осуществляется путем изменения параметра в конструкторе модели:
Котлин
// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`
val model = Firebase.ai(backend = GenerativeBackend.googleAI())
.generativeModel("gemini-2.0-flash")
val response = model.generateContent("Write a story about a magic backpack");
val output = response.text
Ява
// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`
GenerativeModel firebaseAI = FirebaseAI.getInstance(GenerativeBackend.googleAI())
.generativeModel("gemini-2.0-flash");
// Use the GenerativeModelFutures Java compatibility layer which offers
// support for ListenableFuture and Publisher APIs
GenerativeModelFutures model = GenerativeModelFutures.from(firebaseAI);
Content prompt = new Content.Builder()
.addText("Write a story about a magic backpack.")
.build();
ListenableFuture<GenerateContentResponse> response = model.generateContent(prompt);
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
@Override
public void onSuccess(GenerateContentResponse result) {
String resultText = result.getText();
[...]
}
@Override
public void onFailure(Throwable t) {
t.printStackTrace();
}
}, executor);
Ознакомьтесь с полным списком доступных моделей генеративного ИИ, поддерживаемых клиентскими SDK Firebase AI Logic.
Услуги Firebase
Помимо доступа к API Gemini, Firebase AI Logic предлагает набор сервисов для упрощения развертывания функций с поддержкой ИИ в вашем приложении и подготовки к производству:
Проверка приложения
Firebase App Check защищает бэкенды приложений от злоупотреблений, гарантируя, что доступ к ресурсам получат только авторизованные клиенты. Он интегрируется с сервисами Google (включая Firebase и Google Cloud) и пользовательскими бэкендами. App Check использует Play Integrity для проверки того, что запросы исходят от подлинного приложения и неподдельного устройства.
Удаленная настройка
Вместо того, чтобы жестко кодировать имя модели в вашем приложении, мы рекомендуем использовать переменную, контролируемую сервером, с помощью Firebase Remote Config . Это позволяет вам динамически обновлять модель, используемую вашим приложением, без необходимости развертывания новой версии вашего приложения или требования от ваших пользователей выбрать новую версию. Вы также можете использовать Remote Config для A/B-тестирования моделей и подсказок.
ИИ-мониторинг
Чтобы понять, как работают ваши функции с поддержкой ИИ, вы можете использовать панель мониторинга ИИ в консоли Firebase. Вы получите ценную информацию о шаблонах использования, показателях производительности и отладочной информации для ваших вызовов API Gemini.
Переход на Firebase AI Logic
Если вы уже используете Vertex AI в Firebase SDK в своем приложении, прочитайте руководство по миграции .