API Vertex AI Gemini

Если вы новичок в Gemini API, Gemini Developer API является рекомендуемым поставщиком API для разработчиков Android. Но если у вас есть особые требования к расположению данных или вы уже встроены в среду Vertex AI или Google Cloud, вы можете использовать Vertex AI Gemini API.

Миграция из Vertex AI в Firebase

Если вы изначально интегрировали модели Gemini Flash и Pro с помощью Vertex AI в Firebase, вы можете перейти на Vertex AI и продолжить использовать его в качестве поставщика API. Прочитайте документацию Firebase для подробного руководства по миграции .

Начиная

Прежде чем взаимодействовать с API Vertex AI Gemini непосредственно из вашего приложения, вы можете поэкспериментировать с подсказками в Vertex AI Studio .

Настройте проект Firebase и подключите свое приложение к Firebase

Когда вы будете готовы вызвать API Vertex AI Gemini из своего приложения, следуйте инструкциям в руководстве по началу работы с Firebase AI Logic «Шаг 1», чтобы настроить Firebase и SDK в своем приложении.

Добавьте зависимость Gradle

Добавьте следующую зависимость Gradle в модуль вашего приложения:

dependencies {
  // ... other androidx dependencies

  // Import the BoM for the Firebase platform
  implementation(platform("com.google.firebase:firebase-bom:33.13.0"))

  // Add the dependency for the Firebase AI Logic library. When using the BoM,
  // you don't specify versions in Firebase library dependencies
  implementation("com.google.firebase:firebase-ai")
}

Инициализируйте генеративную модель

Начните с создания экземпляра GenerativeModel и указания имени модели:

Котлин

val model = Firebase.ai(backend = GenerativeBackend.vertexAI())
                        .generativeModel("gemini-2.0-flash")

Ява

GenerativeModel firebaseAI = FirebaseAI.getInstance(GenerativeBackend.vertexAI())
        .generativeModel("gemini-2.0-flash");

GenerativeModelFutures model = GenerativeModelFutures.from(firebaseAI);

В документации Firebase вы можете узнать больше о доступных моделях для использования с Gemini Developer API. Вы также можете узнать о настройке параметров модели .

Сгенерировать текст

Чтобы сгенерировать текстовый ответ, вызовите generateContent() с вашим приглашением.

Котлин

kotlin // Note: generateContent() is a suspend function, which integrates well // with existing Kotlin code. scope.launch { val response = model.generateContent("Write a story about a magic backpack.") }

Ява

Content prompt = new Content.Builder()
    .addText("Write a story about a magic backpack.")
    .build();

ListenableFuture<GenerateContentResponse> response = model.generateContent(prompt);
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
    @Override
    public void onSuccess(GenerateContentResponse result) {
        String resultText = result.getText();
        [...]
    }

    @Override
    public void onFailure(Throwable t) {
        t.printStackTrace();
    }
}, executor);

Подобно API разработчика Gemini, вы также можете передавать изображения, аудио, видео и файлы с помощью текстового приглашения (см. «Взаимодействие с API разработчика Gemini из вашего приложения» ).

Чтобы узнать больше о Firebase AI Logic SDK, прочитайте документацию Firebase .