Большие языковые модели (LLM) различаются по своим возможностям. Чтобы обеспечить вам контроль и гибкость при разработке программного обеспечения с использованием ИИ, Android Studio позволяет выбрать модель, обеспечивающую работу ИИ-функций IDE. Модель должна быть локальной и работать на вашем компьютере.
Поддержка локальной модели доступна в выпуске Android Studio Narwhal 4 Feature Drop, который можно загрузить с канала Canary .
Выберите модель
Локальная модель предлагает альтернативу поддержке LLM, встроенной в Android Studio. Однако Gemini в Android Studio , как правило, обеспечивает разработчикам Android наилучший опыт работы с ИИ благодаря мощным моделям Gemini . Вы можете выбрать одну из множества моделей Gemini для своих задач разработки Android, включая бесплатную модель по умолчанию или модели, доступ к которым осуществляется с помощью платного ключа API Gemini .
Возможность локального моделирования — отличный вариант, если вам необходимо работать в автономном режиме, необходимо соблюдать строгие политики компании по использованию инструментов ИИ или вы заинтересованы в экспериментах с исследовательскими моделями с открытым исходным кодом.
Настройте локальную поддержку модели
- Загрузите и установите Android Studio Narwhal 4 Feature Drop Canary 2 или выше. 
- Установите на локальный компьютер поставщика LLM, например LM Studio или Ollama . 
- Добавьте поставщик модели в Android Studio. - Перейдите в Настройки > Инструменты > ИИ > Поставщики моделей. 
- Настройте поставщика модели: 
- Выберите значок » 
- Введите описание поставщика модели (обычно это имя поставщика модели) 
- Установите порт, который прослушивает провайдер 
- Включить модель 
  - Рисунок 1. Настройки поставщика модели. 
- Загрузите и установите модель по вашему выбору. - Ознакомьтесь с каталогами моделей LM Studio и Ollama . Для оптимальной работы с Agent Mode в Android Studio выберите модель, обученную работе с инструментами.  - Рисунок 2. Доступные локальные модели. 
- Запустите среду вывода. - Среда вывода предоставляет вашу модель локальным приложениям. Настройте достаточно большое окно маркера контекста для оптимальной производительности. Подробные инструкции по запуску и настройке среды см. в документации Ollama или LM Studio . 
- Выберите модель. - Откройте Android Studio. Перейдите в окно чата Gemini. Используйте средство выбора модели, чтобы переключиться с модели Gemini по умолчанию на настроенную вами локальную модель.  - Рисунок 3. Выбор модели. 
После подключения Android Studio к локальной модели вы сможете использовать функции чата в IDE. Всё взаимодействие осуществляется исключительно на основе модели, работающей на вашем локальном компьютере, что обеспечивает автономную среду разработки ИИ.
Учитывайте ограничения производительности
Локальная, автономная модель, как правило, не столь производительна и интеллектуальна, как облачные модели Gemini. Ответы в чате от локальных моделей обычно менее точны и имеют большую задержку по сравнению с облачными моделями.
Локальные модели обычно не оптимизированы для разработки под Android, и локальные модели могут возвращать ответы, не содержащие информации о пользовательском интерфейсе Android Studio. Некоторые функции ИИ в Android Studio и сценарии их использования в разработке Android не работают с локальной моделью. Однако функция чата с ИИ в Android Studio, как правило, поддерживается локальными моделями.
Для быстрых и точных ответов по всем аспектам разработки Android и поддержки всех функций Android Studio лучшим решением будет Gemini в Android Studio , работающий на основе моделей Gemini .
