از یک LLM محلی استفاده کنید

مدل های زبان بزرگ (LLM) در قابلیت های خود متفاوت هستند. برای اینکه در توسعه نرم‌افزار به کمک هوش مصنوعی کنترل و انعطاف‌پذیری داشته باشید، Android Studio به شما امکان می‌دهد LLM را انتخاب کنید که عملکرد هوش مصنوعی IDE را تقویت می‌کند. LLM باید محلی باشد و روی دستگاه شخصی شما اجرا شود.

پشتیبانی محلی LLM در نسخه Feature Drop Android Studio Narwhal 4 موجود است که می توانید آن را از کانال قناری دانلود کنید .

LLM را انتخاب کنید

یک LLM محلی جایگزینی برای پشتیبانی LLM ساخته شده در Android Studio ارائه می دهد. با این حال، Gemini در Android Studio به دلیل مدل های قدرتمند Gemini، معمولا بهترین تجربه هوش مصنوعی را برای توسعه دهندگان اندروید فراهم می کند. می‌توانید از بین انواع مدل‌های Gemini برای کارهای توسعه Android خود، از جمله مدل پیش‌فرض بدون هزینه یا مدل‌هایی که با کلید Gemini API پولی به آن‌ها دسترسی دارید، انتخاب کنید.

اگر نیاز به کار آفلاین دارید، باید از سیاست های سختگیرانه شرکت در مورد استفاده از ابزار هوش مصنوعی پیروی کنید یا علاقه مند به آزمایش مدل های تحقیق منبع باز هستید، قابلیت LLM محلی یک گزینه عالی است.

پشتیبانی محلی LLM را تنظیم کنید

  1. Android Studio Narwhal 4 Feature Drop Canary 2 یا بالاتر را دانلود و نصب کنید.

  2. یک ارائه دهنده LLM مانند LM Studio یا Olama را روی رایانه محلی خود نصب کنید.

  3. ارائه دهنده مدل را به Android Studio اضافه کنید.

    • به Settings > Tools > Gemini > Model Providers بروید

    • ارائه دهنده مدل را پیکربندی کنید:

      • نماد انتخاب کنید
      • توضیحات ارائه دهنده مدل را وارد کنید (معمولاً نام ارائه دهنده مدل)
      • پورتی را که ارائه دهنده به آن گوش می دهد تنظیم کنید
      • یک مدل را فعال کنید
    گفتگوی تنظیمات Android Studio که بخش Gemini را با گزینه ای برای فعال کردن حالت آفلاین نشان می دهد.
    شکل 1. تنظیمات ارائه دهنده مدل.
  4. مدل دلخواه خود را دانلود و نصب کنید.

    کاتالوگ مدل LM Studio و Olama را ببینید. برای بهترین تجربه با Agent Mode در اندروید استودیو، مدلی را انتخاب کنید که برای استفاده از ابزار آموزش دیده است.

  5. محیط استنتاج خود را شروع کنید.

    محیط استنتاج LLM شما را به برنامه های محلی ارائه می کند. یک پنجره نشانه با طول زمینه به اندازه کافی بزرگ برای عملکرد بهینه پیکربندی کنید. برای دستورالعمل های دقیق در مورد راه اندازی و پیکربندی محیط خود، به مستندات Ollama یا LM Studio مراجعه کنید.

  6. یک مدل انتخاب کنید.

    اندروید استودیو را باز کنید. به پنجره چت Gemini بروید. از انتخابگر مدل برای جابجایی از مدل پیش‌فرض Gemini به مدل محلی پیکربندی‌شده خود استفاده کنید.

    پنجره گپ Android Studio Gemini که انتخابگر مدل را با گزینه‌هایی برای Gemini و یک LLM محلی نشان می‌دهد.
    شکل 2. انتخابگر مدل.

پس از اتصال Android Studio به مدل محلی خود، می توانید از ویژگی های چت در IDE استفاده کنید. تمام فعل و انفعالات به طور کامل توسط مدلی که بر روی دستگاه محلی شما اجرا می شود، ایجاد می شود و یک محیط توسعه هوش مصنوعی مستقل به شما می دهد.

محدودیت های عملکرد را در نظر بگیرید

یک مدل محلی و آفلاین معمولاً به اندازه مدل‌های Gemini مبتنی بر ابر کارآمد یا هوشمند نخواهد بود. پاسخ‌های چت از مدل‌های محلی معمولاً دقت کمتری دارند و در مقایسه با مدل‌های مبتنی بر ابر، تأخیر بیشتری دارند.

مدل‌های محلی معمولاً برای توسعه اندروید به‌خوبی تنظیم نمی‌شوند و مدل‌های محلی می‌توانند پاسخ‌هایی را برگردانند که درباره رابط کاربری Android Studio اطلاعاتی ندارند. برخی از ویژگی‌های اندروید استودیو هوش مصنوعی و موارد استفاده توسعه اندروید با یک مدل محلی غیر کاربردی هستند. با این حال، ویژگی چت هوش مصنوعی در اندروید استودیو به طور کلی توسط مدل های محلی پشتیبانی می شود.

برای پاسخ‌دهی سریع و دقیق به همه جنبه‌های توسعه Android و پشتیبانی از همه ویژگی‌های Android Studio، Gemini در Android Studio ، با مدل‌های Gemini ، بهترین راه‌حل شماست.

آن را امتحان کنید و بازخورد ارائه دهید

می‌توانید با دانلود آخرین نسخه پیش‌نمایش Android Studio از کانال انتشار قناری، پشتیبانی محلی LLM را کشف کنید.

مشکلات شناخته شده را بررسی کنید تا ببینید آیا مشکلاتی که با آن مواجه می شوید قبلاً مستند شده است یا خیر. اگر مشکلات جدیدی پیدا کردید، اشکالات را گزارش کنید .