Model AI Gemini

Rangkaian model Gemini Pro dan Gemini Flash menawarkan kemampuan AI multimodal kepada developer Android, menjalankan inferensi di cloud, dan memproses input gambar, audio, video, dan teks di aplikasi Android.

  • Gemini Pro: Gemini 2.5 Pro adalah model pemikiran canggih dari Google, yang mampu bernalar atas masalah kompleks dalam kode, matematika, dan STEM, serta menganalisis set data, codebase, dan dokumen dalam jumlah besar menggunakan konteks yang panjang.
  • Gemini Flash: Model Gemini Flash menghadirkan fitur generasi berikutnya dan kemampuan yang ditingkatkan, termasuk kecepatan yang unggul, penggunaan alat bawaan, dan jendela konteks 1 juta token.

Logika Firebase AI

Firebase AI Logic memungkinkan developer menambahkan AI generatif Google secara aman dan langsung ke aplikasi mereka, sehingga menyederhanakan pengembangan, serta menawarkan alat dan integrasi produk untuk kesiapan produksi yang sukses. SDK ini menyediakan SDK Android klien untuk berintegrasi dan memanggil Gemini API secara langsung dari kode klien, sehingga menyederhanakan pengembangan dengan menghilangkan kebutuhan akan backend.

Penyedia API

Firebase AI Logic memungkinkan Anda menggunakan penyedia Google Gemini API berikut: Gemini Developer API dan Vertex AI Gemini API.

Ilustrasi yang menampilkan aplikasi Android yang menggunakan Firebase Android SDK untuk terhubung ke Firebase di cloud. Dari sana, logika AI terintegrasi menggunakan
    dua jalur: Gemini Developer API atau Vertex AI Google Cloud Platform,
    yang keduanya memanfaatkan model Gemini Pro & Flash.
Gambar 1. Arsitektur integrasi Logika AI Firebase.

Berikut adalah perbedaan utama untuk setiap penyedia API:

Gemini Developer API:

  • Mulai tanpa biaya dengan paket gratis yang lengkap tanpa memerlukan informasi pembayaran.
  • Jika ingin, upgrade ke tingkat berbayar Gemini Developer API untuk melakukan penskalaan seiring bertambahnya basis pengguna Anda.
  • Lakukan iterasi dan eksperimen dengan perintah, bahkan dapatkan cuplikan kode menggunakan Google AI Studio.

Vertex AI Gemini API:

  • Kontrol terperinci atas tempat Anda mengakses model.
  • Ideal untuk developer yang sudah tertanam dalam ekosistem Vertex AI/Google Cloud.
  • Lakukan iterasi dan eksperimen dengan perintah, bahkan dapatkan cuplikan kode menggunakan Vertex AI Studio.

Memilih penyedia API yang sesuai untuk aplikasi Anda didasarkan pada batasan bisnis dan teknis, serta pemahaman tentang ekosistem Vertex AI dan Google Cloud. Sebagian besar developer Android yang baru mulai menggunakan integrasi Gemini Pro atau Gemini Flash harus memulai dengan Gemini Developer API. Beralih antar-penyedia dilakukan dengan mengubah parameter dalam konstruktor model:

Kotlin

// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`
val model = Firebase.ai(backend = GenerativeBackend.googleAI())
    .generativeModel("gemini-2.0-flash")

val response = model.generateContent("Write a story about a magic backpack");
val output = response.text

Java

// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`
GenerativeModel firebaseAI = FirebaseAI.getInstance(GenerativeBackend.googleAI())
        .generativeModel("gemini-2.0-flash");

// Use the GenerativeModelFutures Java compatibility layer which offers
// support for ListenableFuture and Publisher APIs
GenerativeModelFutures model = GenerativeModelFutures.from(firebaseAI);

Content prompt = new Content.Builder()
    .addText("Write a story about a magic backpack.")
    .build();

ListenableFuture<GenerateContentResponse> response = model.generateContent(prompt);
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
    @Override
    public void onSuccess(GenerateContentResponse result) {
        String resultText = result.getText();
        [...]
    }

    @Override
    public void onFailure(Throwable t) {
        t.printStackTrace();
    }
}, executor);

Lihat daftar lengkap model AI generatif yang tersedia yang didukung oleh SDK klien Firebase AI Logic.

Layanan Firebase

Selain akses ke Gemini API, Firebase AI Logic menawarkan serangkaian layanan untuk menyederhanakan deployment fitur yang mendukung AI ke aplikasi Anda dan menyiapkannya untuk produksi:

Pemeriksaan Aplikasi

Firebase App Check melindungi backend aplikasi dari penyalahgunaan dengan memastikan hanya klien yang berwenang yang mengakses resource. Fitur ini terintegrasi dengan layanan Google (termasuk Firebase dan Google Cloud) dan backend kustom. App Check menggunakan Play Integrity untuk memverifikasi bahwa permintaan berasal dari aplikasi asli dan perangkat yang tidak dimodifikasi.

Remote Config

Sebaiknya gunakan variabel yang dikontrol server menggunakan Firebase Remote Config, bukan hard code nama model di aplikasi Anda. Hal ini memungkinkan Anda mengupdate model yang digunakan aplikasi secara dinamis tanpa harus men-deploy versi baru aplikasi atau mengharuskan pengguna untuk memilih versi baru. Anda juga dapat menggunakan Remote Config untuk melakukan pengujian A/B pada model dan perintah.

Pemantauan AI

Untuk memahami performa fitur yang dilengkapi AI, Anda dapat menggunakan dasbor pemantauan AI dalam Firebase console. Anda akan mendapatkan insight berharga tentang pola penggunaan, metrik performa, dan informasi proses debug untuk panggilan Gemini API Anda.

Bermigrasi ke Logika AI Firebase

Jika Anda sudah menggunakan Vertex AI di Firebase SDK di aplikasi, baca panduan migrasi.