Модели искусственного интеллекта Gemini

Семейства моделей Gemini Pro и Gemini Flash предлагают разработчикам Android-приложений возможности мультимодального искусственного интеллекта, запуская логический вывод в облаке и обрабатывая входные данные изображений, аудио, видео и текста в приложениях Android.

  • Gemini Pro : Gemini 2.5 Pro — это современная модель мышления от Google, способная рассуждать о сложных проблемах в коде, математике и STEM, а также анализировать большие наборы данных, кодовые базы и документы, используя длинный контекст.
  • Gemini Flash : модели Gemini Flash обладают функциями следующего поколения и улучшенными возможностями, включая превосходную скорость, использование встроенных инструментов и контекстное окно токенов объемом 1 МБ.

Логика искусственного интеллекта Firebase

Firebase AI Logic позволяет разработчикам безопасно и напрямую добавлять генеративный ИИ Google в свои приложения, упрощая разработку, и предлагает инструменты и интеграции продуктов для успешной готовности к производству. Он предоставляет клиентские SDK Android для прямой интеграции и вызова API Gemini из клиентского кода, упрощая разработку, устраняя необходимость в бэкэнде.

API-провайдеры

Firebase AI Logic позволяет использовать следующих поставщиков API Google Gemini: Gemini Developer API и Vertex AI Gemini API .

Иллюстрация, показывающая приложение Android, использующее Firebase Android SDK для подключения к Firebase в облаке. Оттуда логика ИИ интегрируется с использованием двух путей: Gemini Developer API или Vertex AI от Google Cloud Platform, оба используют модели Gemini Pro и Flash.
Рисунок 1. Архитектура интеграции Firebase AI Logic.

Вот основные отличия каждого поставщика API:

API разработчика Gemini :

  • Начните бесплатно с щедрым бесплатным уровнем, не требующим предоставления платежной информации.
  • При желании вы можете перейти на платный уровень API разработчика Gemini, чтобы масштабировать его по мере роста вашей пользовательской базы.
  • Повторяйте и экспериментируйте с подсказками и даже получайте фрагменты кода с помощью Google AI Studio .

API Vertex AI Gemini :

  • Детальный контроль над тем, где вы получаете доступ к модели .
  • Идеально подходит для разработчиков, уже внедренных в экосистему Vertex AI/Google Cloud.
  • Повторяйте и экспериментируйте с подсказками и даже получайте фрагменты кода с помощью Vertex AI Studio .

Выбор подходящего поставщика API для вашего приложения зависит от ваших деловых и технических ограничений, а также знакомства с экосистемой Vertex AI и Google Cloud. Большинству разработчиков Android, только начинающих работу с интеграциями Gemini Pro или Gemini Flash, следует начать с API разработчика Gemini. Переключение между поставщиками осуществляется путем изменения параметра в конструкторе модели:

Котлин

// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`
val model = Firebase.ai(backend = GenerativeBackend.googleAI())
    .generativeModel("gemini-2.0-flash")

val response = model.generateContent("Write a story about a magic backpack");
val output = response.text

Ява

// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`
GenerativeModel firebaseAI = FirebaseAI.getInstance(GenerativeBackend.googleAI())
        .generativeModel("gemini-2.0-flash");

// Use the GenerativeModelFutures Java compatibility layer which offers
// support for ListenableFuture and Publisher APIs
GenerativeModelFutures model = GenerativeModelFutures.from(firebaseAI);

Content prompt = new Content.Builder()
    .addText("Write a story about a magic backpack.")
    .build();

ListenableFuture<GenerateContentResponse> response = model.generateContent(prompt);
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
    @Override
    public void onSuccess(GenerateContentResponse result) {
        String resultText = result.getText();
        [...]
    }

    @Override
    public void onFailure(Throwable t) {
        t.printStackTrace();
    }
}, executor);

Ознакомьтесь с полным списком доступных моделей генеративного ИИ, поддерживаемых клиентскими SDK Firebase AI Logic.

Услуги Firebase

Помимо доступа к API Gemini, Firebase AI Logic предлагает набор сервисов для упрощения развертывания функций с поддержкой ИИ в вашем приложении и подготовки к производству:

Проверка приложения

Firebase App Check защищает бэкенды приложений от злоупотреблений, гарантируя, что доступ к ресурсам получат только авторизованные клиенты. Он интегрируется с сервисами Google (включая Firebase и Google Cloud) и пользовательскими бэкендами. App Check использует Play Integrity для проверки того, что запросы исходят от подлинного приложения и неподдельного устройства.

Удаленная настройка

Вместо того, чтобы жестко кодировать имя модели в вашем приложении, мы рекомендуем использовать переменную, контролируемую сервером, с помощью Firebase Remote Config . Это позволяет вам динамически обновлять модель, используемую вашим приложением, без необходимости развертывания новой версии вашего приложения или требования от ваших пользователей выбрать новую версию. Вы также можете использовать Remote Config для A/B-тестирования моделей и подсказок.

ИИ-мониторинг

Чтобы понять, как работают ваши функции с поддержкой ИИ, вы можете использовать панель мониторинга ИИ в консоли Firebase. Вы получите ценную информацию о шаблонах использования, показателях производительности и отладочной информации для ваших вызовов API Gemini.

Переход на Firebase AI Logic

Если вы уже используете Vertex AI в Firebase SDK в своем приложении, прочитайте руководство по миграции .