Модели искусственного интеллекта Gemini

Семейства моделей Gemini Pro и Gemini Flash предлагают разработчикам Android-приложений возможности многомодального ИИ, выполнения вывода в облаке и обработки изображений, аудио, видео и текстовых входных данных в приложениях Android.

  • Gemini Pro : Gemini 2.5 Pro — это современная модель мышления от Google, способная рассуждать о сложных проблемах в коде, математике и STEM, а также анализировать большие наборы данных, кодовые базы и документы, используя обширный контекст.
  • Gemini Flash : модели Gemini Flash обладают функциями следующего поколения и улучшенными возможностями, включая превосходную скорость, использование встроенных инструментов и окно контекста токенов размером 1 МБ.

Логика искусственного интеллекта Firebase

Firebase AI Logic позволяет разработчикам безопасно и напрямую добавлять генеративный ИИ от Google в свои приложения, упрощая разработку, а также предлагает инструменты и интеграцию продуктов для успешного запуска в производство. Firebase предоставляет клиентские SDK для Android для прямой интеграции и вызова API Gemini из клиентского кода, упрощая разработку, устраняя необходимость в бэкенде.

API-провайдеры

Firebase AI Logic позволяет использовать следующих поставщиков API Google Gemini: Gemini Developer API и Vertex AI Gemini API .

На иллюстрации показано Android-приложение, использующее Firebase Android SDK для подключения к Firebase в облаке. Далее логика ИИ интегрируется двумя способами: через Gemini Developer API или Vertex AI от Google Cloud Platform, оба используют модели Gemini Pro и Flash.
Рисунок 1. Архитектура интеграции Firebase AI Logic.

Вот основные отличия каждого поставщика API:

API разработчика Gemini :

  • Начните бесплатно с щедрым бесплатным уровнем, не требующим ввода платежных данных.
  • При желании вы можете перейти на платный уровень API-интерфейса Gemini Developer, чтобы масштабировать его по мере роста базы пользователей.
  • Повторяйте и экспериментируйте с подсказками и даже получайте фрагменты кода с помощью Google AI Studio .

API Vertex AI Gemini :

  • Детальный контроль над тем, где вы получаете доступ к модели .
  • Идеально подходит для разработчиков, уже интегрированных в экосистему Vertex AI/Google Cloud.
  • Повторяйте и экспериментируйте с подсказками и даже получайте фрагменты кода с помощью Vertex AI Studio .

Выбор подходящего поставщика API для вашего приложения зависит от ваших бизнес-требований, технических ограничений и знакомства с экосистемой Vertex AI и Google Cloud. Большинству разработчиков Android, только начинающих работу с интеграцией Gemini Pro или Gemini Flash, следует начать с API разработчика Gemini. Переключение между поставщиками осуществляется изменением параметра в конструкторе модели:

Котлин

// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`
val model = Firebase.ai(backend = GenerativeBackend.googleAI())
    .generativeModel("gemini-2.5-flash")

val response = model.generateContent("Write a story about a magic backpack");
val output = response.text

Ява

// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`
GenerativeModel firebaseAI = FirebaseAI.getInstance(GenerativeBackend.googleAI())
        .generativeModel("gemini-2.5-flash");

// Use the GenerativeModelFutures Java compatibility layer which offers
// support for ListenableFuture and Publisher APIs
GenerativeModelFutures model = GenerativeModelFutures.from(firebaseAI);

Content prompt = new Content.Builder()
    .addText("Write a story about a magic backpack.")
    .build();

ListenableFuture<GenerateContentResponse> response = model.generateContent(prompt);
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
    @Override
    public void onSuccess(GenerateContentResponse result) {
        String resultText = result.getText();
        [...]
    }

    @Override
    public void onFailure(Throwable t) {
        t.printStackTrace();
    }
}, executor);

Ознакомьтесь с полным списком доступных моделей генеративного ИИ, поддерживаемых клиентскими SDK Firebase AI Logic.

Службы Firebase

Помимо доступа к API Gemini, Firebase AI Logic предлагает набор сервисов для упрощения развертывания функций с поддержкой ИИ в вашем приложении и подготовки к производству:

Проверка приложений

Firebase App Check защищает бэкенды приложений от злоупотреблений, предоставляя доступ к ресурсам только авторизованным клиентам. Сервис интегрируется с сервисами Google (включая Firebase и Google Cloud) и пользовательскими бэкендами. App Check использует Play Integrity для проверки того, что запросы исходят от подлинного приложения и устройства, не подвергавшегося изменениям.

Удаленная настройка

Вместо того, чтобы жёстко прописывать название модели в приложении, мы рекомендуем использовать переменную, управляемую сервером, с помощью Firebase Remote Config . Это позволяет динамически обновлять модель, используемую вашим приложением, без необходимости развертывания новой версии приложения или необходимости установки новой версии пользователями. Вы также можете использовать Remote Config для A/B-тестирования моделей и запросов.

ИИ-мониторинг

Чтобы оценить эффективность ваших функций с поддержкой ИИ, воспользуйтесь панелью мониторинга ИИ в консоли Firebase. Вы получите ценную информацию о закономерностях использования, показателях производительности и отладочной информации для вызовов API Gemini.

Переход на Firebase AI Logic

Если вы уже используете Vertex AI в Firebase SDK в своем приложении, прочтите руководство по миграции .