Menggunakan model lokal

Model bahasa besar (LLM) berbeda dalam kemampuannya. Untuk memberi Anda kontrol dan fleksibilitas dalam pengembangan software yang dibantu AI, Android Studio memungkinkan Anda memilih model yang mendukung fungsi AI IDE. Model harus bersifat lokal, berjalan di komputer pribadi Anda.

Dukungan model lokal tersedia di rilis Terbatas Update Fitur Baru Android Studio Narwhal 4, yang dapat Anda download dari saluran canary.

Pilih model

Model lokal menawarkan alternatif untuk dukungan LLM yang ada di Android Studio; namun, Gemini di Android Studio biasanya memberikan pengalaman AI terbaik bagi developer Android karena model Gemini yang canggih. Anda dapat memilih dari berbagai model Gemini untuk tugas pengembangan Android Anda, termasuk model default tanpa biaya atau model yang diakses dengan kunci Gemini API berbayar.

Kemampuan model lokal adalah opsi yang bagus jika Anda perlu bekerja secara offline, harus mematuhi kebijakan perusahaan yang ketat terkait penggunaan alat AI, atau tertarik untuk bereksperimen dengan model penelitian open source.

Menyiapkan dukungan model lokal

  1. Download dan instal Android Studio Narwhal 4 Feature Drop Canary 2 atau yang lebih tinggi.

  2. Instal penyedia LLM seperti LM Studio atau Ollama di komputer lokal Anda.

  3. Tambahkan penyedia model ke Android Studio.

    • Buka Setelan > Alat > AI > Penyedia Model

    • Konfigurasi penyedia model:

    • Pilih ikon

    • Masukkan deskripsi penyedia model (biasanya nama penyedia model)

    • Menetapkan port tempat penyedia memproses

    • Mengaktifkan model

    Dialog setelan Android Studio yang menampilkan bagian Gemini dengan opsi untuk mengaktifkan mode offline.
    Gambar 1. Setelan penyedia model.
  4. Download dan instal model pilihan Anda.

    Lihat katalog model LM Studio dan Ollama. Untuk mendapatkan pengalaman terbaik dengan Mode Agen di Android Studio, pilih model yang telah dilatih untuk penggunaan alat.

    Dialog setelan Android Studio yang menampilkan daftar model lokal yang tersedia.
    Gambar 2. Model lokal yang tersedia.
  5. Mulai lingkungan inferensi Anda.

    Lingkungan inferensi menayangkan model Anda ke aplikasi lokal. Konfigurasi jendela token panjang konteks yang cukup besar untuk performa yang optimal. Untuk mengetahui petunjuk mendetail tentang cara memulai dan mengonfigurasi lingkungan, lihat dokumentasi Ollama atau LM Studio.

  6. Pilih model.

    Buka Android Studio. Buka jendela percakapan Gemini. Gunakan pemilih model untuk beralih dari model Gemini default ke model lokal yang telah Anda konfigurasi.

    Jendela chat Gemini Android Studio yang menampilkan pemilih model dengan opsi untuk Gemini dan model lokal.
    Gambar 3. Pemilih model.

Setelah menghubungkan Android Studio ke model lokal, Anda dapat menggunakan fitur chat dalam IDE. Semua interaksi sepenuhnya didukung oleh model yang berjalan di mesin lokal Anda, sehingga memberi Anda lingkungan pengembangan AI yang mandiri.

Mempertimbangkan batasan performa

Model lokal dan offline biasanya tidak akan berperforma atau secerdas model Gemini berbasis cloud. Respons chat dari model lokal biasanya kurang akurat dan memiliki latensi yang lebih tinggi dibandingkan dengan model berbasis cloud.

Model lokal biasanya tidak di-fine-tune untuk pengembangan Android, dan model lokal dapat menampilkan respons yang tidak memiliki informasi tentang antarmuka pengguna Android Studio. Beberapa fitur AI Android Studio dan kasus penggunaan pengembangan Android tidak berfungsi dengan model lokal. Namun, fitur chat AI di Android Studio umumnya didukung oleh model lokal.

Untuk mendapatkan respons yang cepat dan akurat terkait semua aspek pengembangan Android dan dukungan untuk semua fitur Android Studio, Gemini di Android Studio, yang didukung oleh model Gemini, adalah solusi terbaik Anda.