Семейства моделей Gemini Pro и Gemini Flash предоставляют разработчикам Android возможности многомодального искусственного интеллекта, позволяя выполнять вычисления в облаке и обрабатывать изображения, аудио, видео и текст в приложениях Android.
- Gemini Pro : Gemini Pro — это передовая модель мышления от Google, способная рассуждать над сложными задачами в области программирования, математики и STEM-дисциплин, а также анализировать большие наборы данных, кодовые базы и документы, используя подробный контекст.
- Gemini Flash : Модели Gemini Flash предлагают функции нового поколения и улучшенные возможности, включая превосходную скорость, встроенное использование инструментов и контекстное окно для 1 миллиона токенов.
Firebase AI Logic
Firebase AI Logic позволяет разработчикам безопасно и напрямую интегрировать генеративный ИИ Google в свои приложения, упрощая разработку, и предлагает инструменты и интеграцию продуктов для успешной подготовки к производству. Он предоставляет клиентские Android SDK для прямой интеграции и вызова API Gemini из клиентского кода, упрощая разработку за счет устранения необходимости в бэкенде.
Поставщики API
Firebase AI Logic позволяет использовать следующие API-провайдеры Google Gemini: Gemini Developer API и Vertex AI Gemini API .
Вот основные различия между каждым поставщиком API:
- Начните бесплатно, воспользовавшись щедрым бесплатным тарифом, для которого не требуется предоставление платежной информации.
- При желании вы можете перейти на платный тарифный план Gemini Developer API, чтобы масштабировать сервис по мере роста вашей пользовательской базы.
- Экспериментируйте с подсказками и даже получайте фрагменты кода, используя Google AI Studio .
- Детальный контроль над тем, откуда вы получаете доступ к модели .
- Идеально подходит для разработчиков, уже интегрированных в экосистему Vertex AI/Google Cloud.
- Экспериментируйте с подсказками и даже получайте фрагменты кода, используя Vertex AI Studio .
Выбор подходящего API-провайдера для вашего приложения зависит от ваших бизнес- и технических ограничений, а также от знакомства с экосистемой Vertex AI и Google Cloud. Большинству разработчиков Android, только начинающих работу с интеграциями Gemini Pro или Gemini Flash, следует начать с Gemini Developer API. Переключение между провайдерами осуществляется путем изменения параметра в конструкторе модели:
Котлин
// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`
val model = Firebase.ai(backend = GenerativeBackend.googleAI())
.generativeModel("gemini-2.5-flash")
val response = model.generateContent("Write a story about a magic backpack");
val output = response.text
Java
// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`
GenerativeModel firebaseAI = FirebaseAI.getInstance(GenerativeBackend.googleAI())
.generativeModel("gemini-2.5-flash");
// Use the GenerativeModelFutures Java compatibility layer which offers
// support for ListenableFuture and Publisher APIs
GenerativeModelFutures model = GenerativeModelFutures.from(firebaseAI);
Content prompt = new Content.Builder()
.addText("Write a story about a magic backpack.")
.build();
ListenableFuture<GenerateContentResponse> response = model.generateContent(prompt);
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
@Override
public void onSuccess(GenerateContentResponse result) {
String resultText = result.getText();
[...]
}
@Override
public void onFailure(Throwable t) {
t.printStackTrace();
}
}, executor);
См. полный список доступных моделей генеративного ИИ, поддерживаемых клиентскими SDK Firebase AI Logic.
Сервисы Firebase
Помимо доступа к API Gemini, Firebase AI Logic предлагает набор сервисов для упрощения развертывания функций с поддержкой ИИ в вашем приложении и подготовки к запуску в производство:
Проверка приложения
Firebase App Check защищает бэкэнды приложений от злоупотреблений, гарантируя, что доступ к ресурсам имеют только авторизованные клиенты. Он интегрируется с сервисами Google (включая Firebase и Google Cloud) и пользовательскими бэкэндами. App Check использует Play Integrity для проверки того, что запросы исходят от подлинного приложения и с невмешательского устройства.
Удалённая конфигурация
Вместо того чтобы жестко прописывать имя модели в вашем приложении, мы рекомендуем использовать переменную, управляемую сервером, с помощью Firebase Remote Config . Это позволит вам динамически обновлять модель, используемую вашим приложением, без необходимости развертывания новой версии приложения или требования к пользователям устанавливать новую версию. Вы также можете использовать Remote Config для A/B-тестирования моделей и подсказок.
мониторинг с помощью ИИ
Чтобы понять, насколько эффективно работают ваши функции с поддержкой ИИ, вы можете использовать панель мониторинга ИИ в консоли Firebase. Вы получите ценную информацию о моделях использования, показателях производительности и отладочные данные для вызовов API Gemini.
Переход на Firebase AI Logic
Если вы уже используете Vertex AI в Firebase SDK в своем приложении, ознакомьтесь с руководством по миграции .