Если вы новичок в API Gemini, рекомендуемым поставщиком API для разработчиков Android является Gemini Developer API . Но если у вас есть особые требования к местоположению данных или вы уже интегрированы в среду Vertex AI или Google Cloud, вы можете использовать Vertex AI Gemini API.
Миграция с Vertex AI в Firebase
Если вы изначально интегрировали модели Gemini Flash и Pro с помощью Vertex AI в Firebase, вы можете перейти на использование Vertex AI в качестве поставщика API и продолжить его использование. Подробное руководство по миграции см. в документации Firebase.
Начиная
Прежде чем напрямую взаимодействовать с API Vertex AI Gemini из своего приложения, вы можете поэкспериментировать с подсказками в Vertex AI Studio .
Создайте проект Firebase и подключите ваше приложение к Firebase.
Когда вы будете готовы вызывать API Vertex AI Gemini из своего приложения, следуйте инструкциям в руководстве по началу работы с Firebase AI Logic (Шаг 1), чтобы настроить Firebase и SDK в вашем приложении.
Добавьте зависимость Gradle.
Добавьте следующую зависимость Gradle в модуль вашего приложения:
dependencies {
// ... other androidx dependencies
// Import the BoM for the Firebase platform
implementation(platform("com.google.firebase:firebase-bom:34.8.0"))
// Add the dependency for the Firebase AI Logic library. When using the BoM,
// you don't specify versions in Firebase library dependencies
implementation("com.google.firebase:firebase-ai")
}
Инициализируйте генеративную модель.
Для начала создайте экземпляр GenerativeModel и укажите имя модели:
Котлин
val model = Firebase.ai(backend = GenerativeBackend.vertexAI()) .generativeModel("gemini-2.5-flash")
Java
GenerativeModel firebaseAI = FirebaseAI.getInstance(GenerativeBackend.vertexAI()) .generativeModel("gemini-2.5-flash"); GenerativeModelFutures model = GenerativeModelFutures.from(firebaseAI);
В документации Firebase вы можете узнать больше о доступных моделях для использования с API разработчика Gemini. Вы также можете узнать о настройке параметров модели .
Сгенерировать текст
Для генерации текстового ответа вызовите функцию generateContent() с вашим приглашением.
Котлин
suspend fun generateText(model: GenerativeModel) { // Note: generateContent() is a suspend function, which integrates well // with existing Kotlin code. val response = model.generateContent("Write a story about a magic backpack.") // ... }
Java
Content prompt = new Content.Builder() .addText("Write a story about a magic backpack.") .build(); ListenableFuture<GenerateContentResponse> response = model.generateContent(prompt); Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() { @Override public void onSuccess(GenerateContentResponse result) { String resultText = result.getText(); // ... } @Override public void onFailure(Throwable t) { t.printStackTrace(); } }, executor);
Аналогично API для разработчиков Gemini, вы также можете передавать изображения, аудио, видео и файлы вместе с текстовым запросом. Подробнее см. раздел «Взаимодействие с API для разработчиков Gemini из вашего приложения» .
Чтобы узнать больше о Firebase AI Logic SDK, ознакомьтесь с документацией Firebase .