Rangkaian model Gemini Pro dan Gemini Flash menawarkan kemampuan AI multimodal kepada developer Android, yang menjalankan inferensi di cloud dan memproses input gambar, audio, video, dan teks di aplikasi Android.
- Gemini Pro: Gemini 2.5 Pro adalah model pemikiran tercanggih dari Google, yang mampu melakukan penalaran atas masalah kompleks dalam kode, matematika, dan STEM, serta menganalisis set data, codebase, dan dokumen dalam jumlah besar menggunakan konteks panjang.
- Gemini Flash: Model Gemini Flash memberikan fitur generasi berikutnya dan kemampuan yang lebih baik, termasuk kecepatan yang lebih tinggi, penggunaan alat bawaan, dan jendela konteks 1 juta token.
Firebase AI Logic
Firebase AI Logic memungkinkan developer menambahkan AI generatif Google secara aman dan langsung ke dalam aplikasi mereka, sehingga menyederhanakan pengembangan, serta menawarkan alat dan integrasi produk untuk kesiapan produksi yang berhasil. SDK ini menyediakan SDK Android klien untuk mengintegrasikan dan memanggil Gemini API secara langsung dari kode klien, sehingga menyederhanakan pengembangan dengan menghilangkan kebutuhan akan backend.
Penyedia API
Firebase AI Logic memungkinkan Anda menggunakan penyedia Google Gemini API berikut: Gemini Developer API dan Vertex AI Gemini API.
Berikut adalah perbedaan utama untuk setiap penyedia API:
- Mulai tanpa biaya dengan paket gratis yang bermanfaat tanpa memerlukan informasi pembayaran.
- Anda dapat mengupgrade ke tingkat berbayar Gemini Developer API untuk menskalakan seiring pertumbuhan basis pengguna Anda.
- Lakukan iterasi dan eksperimen dengan perintah, bahkan dapatkan cuplikan kode menggunakan Google AI Studio.
- Kontrol terperinci atas tempat Anda mengakses model.
- Ideal untuk developer yang sudah terintegrasi dalam ekosistem Vertex AI/Google Cloud.
- Lakukan iterasi dan eksperimen dengan perintah, bahkan dapatkan cuplikan kode menggunakan Vertex AI Studio.
Pemilihan penyedia API yang sesuai untuk aplikasi Anda didasarkan pada batasan bisnis dan teknis Anda, serta keakraban Anda dengan ekosistem Vertex AI dan Google Cloud. Sebagian besar developer Android yang baru mulai menggunakan integrasi Gemini Pro atau Gemini Flash harus memulai dengan Gemini Developer API. Beralih antar-penyedia dilakukan dengan mengubah parameter di konstruktor model:
Kotlin
// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`
val model = Firebase.ai(backend = GenerativeBackend.googleAI())
.generativeModel("gemini-2.5-flash")
val response = model.generateContent("Write a story about a magic backpack");
val output = response.text
Java
// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`
GenerativeModel firebaseAI = FirebaseAI.getInstance(GenerativeBackend.googleAI())
.generativeModel("gemini-2.5-flash");
// Use the GenerativeModelFutures Java compatibility layer which offers
// support for ListenableFuture and Publisher APIs
GenerativeModelFutures model = GenerativeModelFutures.from(firebaseAI);
Content prompt = new Content.Builder()
.addText("Write a story about a magic backpack.")
.build();
ListenableFuture<GenerateContentResponse> response = model.generateContent(prompt);
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
@Override
public void onSuccess(GenerateContentResponse result) {
String resultText = result.getText();
[...]
}
@Override
public void onFailure(Throwable t) {
t.printStackTrace();
}
}, executor);
Lihat daftar lengkap model AI generatif yang tersedia yang didukung oleh SDK klien Firebase AI Logic.
Layanan Firebase
Selain akses ke Gemini API, Firebase AI Logic menawarkan serangkaian layanan untuk menyederhanakan deployment fitur yang mendukung AI ke aplikasi Anda dan bersiap untuk produksi:
Pemeriksaan Aplikasi
Firebase App Check mengamankan backend aplikasi dari penyalahgunaan dengan memastikan hanya klien yang sah yang mengakses resource. Fitur ini terintegrasi dengan layanan Google (termasuk Firebase dan Google Cloud) dan backend kustom. App Check menggunakan Play Integrity untuk memverifikasi bahwa permintaan berasal dari aplikasi asli dan perangkat yang tidak dimodifikasi.
Remote Config
Daripada meng-hardcode nama model di aplikasi, sebaiknya gunakan variabel yang dikontrol server menggunakan Firebase Remote Config. Dengan begitu, Anda dapat memperbarui model yang digunakan aplikasi Anda secara dinamis tanpa harus men-deploy versi baru aplikasi atau mengharuskan pengguna mengambil versi baru. Anda juga dapat menggunakan Remote Config untuk melakukan pengujian A/B pada model dan perintah.
Pemantauan AI
Untuk memahami performa fitur yang mendukung AI, Anda dapat menggunakan dasbor pemantauan AI di Firebase console. Anda akan mendapatkan insight berharga tentang pola penggunaan, metrik performa, dan informasi proses debug untuk panggilan Gemini API Anda.
Bermigrasi ke Firebase AI Logic
Jika Anda sudah menggunakan Vertex AI in Firebase SDK di aplikasi, baca panduan migrasi.