Семейства моделей Gemini Pro и Gemini Flash предлагают разработчикам Android-приложений возможности многомодального ИИ, выполнения вывода в облаке и обработки изображений, аудио, видео и текстовых входных данных в приложениях Android.
- Gemini Pro : Gemini 2.5 Pro — это современная модель мышления от Google, способная рассуждать о сложных проблемах в коде, математике и STEM, а также анализировать большие наборы данных, кодовые базы и документы, используя обширный контекст.
- Gemini Flash : модели Gemini Flash обладают функциями следующего поколения и улучшенными возможностями, включая превосходную скорость, использование встроенных инструментов и окно контекста токенов размером 1 МБ.
Логика искусственного интеллекта Firebase
Firebase AI Logic позволяет разработчикам безопасно и напрямую добавлять генеративный ИИ от Google в свои приложения, упрощая разработку, а также предлагает инструменты и интеграцию продуктов для успешного запуска в производство. Firebase предоставляет клиентские SDK для Android для прямой интеграции и вызова API Gemini из клиентского кода, упрощая разработку, устраняя необходимость в бэкенде.
API-провайдеры
Firebase AI Logic позволяет использовать следующих поставщиков API Google Gemini: Gemini Developer API и Vertex AI Gemini API .
Вот основные отличия каждого поставщика API:
- Начните бесплатно с щедрым бесплатным уровнем, не требующим ввода платежных данных.
- При желании вы можете перейти на платный уровень API-интерфейса Gemini Developer, чтобы масштабировать его по мере роста базы пользователей.
- Повторяйте и экспериментируйте с подсказками и даже получайте фрагменты кода с помощью Google AI Studio .
- Детальный контроль над тем, где вы получаете доступ к модели .
- Идеально подходит для разработчиков, уже интегрированных в экосистему Vertex AI/Google Cloud.
- Повторяйте и экспериментируйте с подсказками и даже получайте фрагменты кода с помощью Vertex AI Studio .
Выбор подходящего поставщика API для вашего приложения зависит от ваших бизнес-требований, технических ограничений и знакомства с экосистемой Vertex AI и Google Cloud. Большинству разработчиков Android, только начинающих работу с интеграцией Gemini Pro или Gemini Flash, следует начать с API разработчика Gemini. Переключение между поставщиками осуществляется изменением параметра в конструкторе модели:
Котлин
// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`
val model = Firebase.ai(backend = GenerativeBackend.googleAI())
.generativeModel("gemini-2.5-flash")
val response = model.generateContent("Write a story about a magic backpack");
val output = response.text
Ява
// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`
GenerativeModel firebaseAI = FirebaseAI.getInstance(GenerativeBackend.googleAI())
.generativeModel("gemini-2.5-flash");
// Use the GenerativeModelFutures Java compatibility layer which offers
// support for ListenableFuture and Publisher APIs
GenerativeModelFutures model = GenerativeModelFutures.from(firebaseAI);
Content prompt = new Content.Builder()
.addText("Write a story about a magic backpack.")
.build();
ListenableFuture<GenerateContentResponse> response = model.generateContent(prompt);
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
@Override
public void onSuccess(GenerateContentResponse result) {
String resultText = result.getText();
[...]
}
@Override
public void onFailure(Throwable t) {
t.printStackTrace();
}
}, executor);
Ознакомьтесь с полным списком доступных моделей генеративного ИИ, поддерживаемых клиентскими SDK Firebase AI Logic.
Службы Firebase
Помимо доступа к API Gemini, Firebase AI Logic предлагает набор сервисов для упрощения развертывания функций с поддержкой ИИ в вашем приложении и подготовки к производству:
Проверка приложений
Firebase App Check защищает бэкенды приложений от злоупотреблений, предоставляя доступ к ресурсам только авторизованным клиентам. Сервис интегрируется с сервисами Google (включая Firebase и Google Cloud) и пользовательскими бэкендами. App Check использует Play Integrity для проверки того, что запросы исходят от подлинного приложения и устройства, не подвергавшегося изменениям.
Удаленная настройка
Вместо того, чтобы жёстко прописывать название модели в приложении, мы рекомендуем использовать переменную, управляемую сервером, с помощью Firebase Remote Config . Это позволяет динамически обновлять модель, используемую вашим приложением, без необходимости развертывания новой версии приложения или необходимости установки новой версии пользователями. Вы также можете использовать Remote Config для A/B-тестирования моделей и запросов.
ИИ-мониторинг
Чтобы оценить эффективность ваших функций с поддержкой ИИ, воспользуйтесь панелью мониторинга ИИ в консоли Firebase. Вы получите ценную информацию о закономерностях использования, показателях производительности и отладочной информации для вызовов API Gemini.
Переход на Firebase AI Logic
Если вы уже используете Vertex AI в Firebase SDK в своем приложении, прочтите руководство по миграции .