Если вы новичок в Gemini API, Gemini Developer API является рекомендуемым поставщиком API для разработчиков Android. Но если у вас есть особые требования к расположению данных или вы уже встроены в среду Vertex AI или Google Cloud, вы можете использовать Vertex AI Gemini API.
Миграция из Vertex AI в Firebase
Если вы изначально интегрировали модели Gemini Flash и Pro с помощью Vertex AI в Firebase, вы можете перейти на Vertex AI и продолжить использовать его в качестве поставщика API. Прочитайте документацию Firebase для подробного руководства по миграции .
Начиная
Прежде чем взаимодействовать с API Vertex AI Gemini непосредственно из вашего приложения, вы можете поэкспериментировать с подсказками в Vertex AI Studio .
Настройте проект Firebase и подключите свое приложение к Firebase
Когда вы будете готовы вызвать API Vertex AI Gemini из своего приложения, следуйте инструкциям в руководстве по началу работы с Firebase AI Logic «Шаг 1», чтобы настроить Firebase и SDK в своем приложении.
Добавьте зависимость Gradle
Добавьте следующую зависимость Gradle в модуль вашего приложения:
dependencies {
// ... other androidx dependencies
// Import the BoM for the Firebase platform
implementation(platform("com.google.firebase:firebase-bom:33.13.0"))
// Add the dependency for the Firebase AI Logic library. When using the BoM,
// you don't specify versions in Firebase library dependencies
implementation("com.google.firebase:firebase-ai")
}
Инициализируйте генеративную модель
Начните с создания экземпляра GenerativeModel
и указания имени модели:
Котлин
val model = Firebase.ai(backend = GenerativeBackend.vertexAI())
.generativeModel("gemini-2.0-flash")
Ява
GenerativeModel firebaseAI = FirebaseAI.getInstance(GenerativeBackend.vertexAI())
.generativeModel("gemini-2.0-flash");
GenerativeModelFutures model = GenerativeModelFutures.from(firebaseAI);
В документации Firebase вы можете узнать больше о доступных моделях для использования с Gemini Developer API. Вы также можете узнать о настройке параметров модели .
Сгенерировать текст
Чтобы сгенерировать текстовый ответ, вызовите generateContent()
с вашим приглашением.
Котлин
kotlin // Note: generateContent() is a suspend function, which integrates well // with existing Kotlin code. scope.launch { val response = model.generateContent("Write a story about a magic backpack.") }
Ява
Content prompt = new Content.Builder()
.addText("Write a story about a magic backpack.")
.build();
ListenableFuture<GenerateContentResponse> response = model.generateContent(prompt);
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
@Override
public void onSuccess(GenerateContentResponse result) {
String resultText = result.getText();
[...]
}
@Override
public void onFailure(Throwable t) {
t.printStackTrace();
}
}, executor);
Подобно API разработчика Gemini, вы также можете передавать изображения, аудио, видео и файлы с помощью текстового приглашения (см. «Взаимодействие с API разработчика Gemini из вашего приложения» ).
Чтобы узнать больше о Firebase AI Logic SDK, прочитайте документацию Firebase .