Используйте локальную модель

Большие языковые модели (LLM) различаются по своим возможностям. Чтобы обеспечить вам контроль и гибкость при разработке программного обеспечения с использованием ИИ, Android Studio позволяет выбрать модель, обеспечивающую работу ИИ-функций IDE. Модель должна быть локальной и работать на вашем компьютере.

Поддержка локальной модели доступна в выпуске Android Studio Narwhal 4 Feature Drop, который можно загрузить с канала Canary .

Выберите модель

Локальная модель предлагает альтернативу поддержке LLM, встроенной в Android Studio. Однако Gemini в Android Studio , как правило, обеспечивает разработчикам Android наилучший опыт работы с ИИ благодаря мощным моделям Gemini . Вы можете выбрать одну из множества моделей Gemini для своих задач разработки Android, включая бесплатную модель по умолчанию или модели, доступ к которым осуществляется с помощью платного ключа API Gemini .

Возможность локального моделирования — отличный вариант, если вам необходимо работать в автономном режиме, необходимо соблюдать строгие политики компании по использованию инструментов ИИ или вы заинтересованы в экспериментах с исследовательскими моделями с открытым исходным кодом.

Настройте локальную поддержку модели

  1. Загрузите и установите Android Studio Narwhal 4 Feature Drop Canary 2 или выше.

  2. Установите на локальный компьютер поставщика LLM, например LM Studio или Ollama .

  3. Добавьте поставщик модели в Android Studio.

    • Перейдите в Настройки > Инструменты > ИИ > Поставщики моделей.

    • Настройте поставщика модели:

    • Выберите значок »

    • Введите описание поставщика модели (обычно это имя поставщика модели)

    • Установите порт, который прослушивает провайдер

    • Включить модель

    Диалоговое окно настроек Android Studio, отображающее раздел Gemini с возможностью включения автономного режима.
    Рисунок 1. Настройки поставщика модели.
  4. Загрузите и установите модель по вашему выбору.

    Ознакомьтесь с каталогами моделей LM Studio и Ollama . Для оптимальной работы с Agent Mode в Android Studio выберите модель, обученную работе с инструментами.

    Диалоговое окно настроек Android Studio со списком доступных локальных моделей.
    Рисунок 2. Доступные локальные модели.
  5. Запустите среду вывода.

    Среда вывода предоставляет вашу модель локальным приложениям. Настройте достаточно большое окно маркера контекста для оптимальной производительности. Подробные инструкции по запуску и настройке среды см. в документации Ollama или LM Studio .

  6. Выберите модель.

    Откройте Android Studio. Перейдите в окно чата Gemini. Используйте средство выбора модели, чтобы переключиться с модели Gemini по умолчанию на настроенную вами локальную модель.

    Окно чата Android Studio Gemini, в котором отображается средство выбора модели с вариантами для Gemini и локальной модели.
    Рисунок 3. Выбор модели.

После подключения Android Studio к локальной модели вы сможете использовать функции чата в IDE. Всё взаимодействие осуществляется исключительно на основе модели, работающей на вашем локальном компьютере, что обеспечивает автономную среду разработки ИИ.

Учитывайте ограничения производительности

Локальная, автономная модель, как правило, не столь производительна и интеллектуальна, как облачные модели Gemini. Ответы в чате от локальных моделей обычно менее точны и имеют большую задержку по сравнению с облачными моделями.

Локальные модели обычно не оптимизированы для разработки под Android, и локальные модели могут возвращать ответы, не содержащие информации о пользовательском интерфейсе Android Studio. Некоторые функции ИИ в Android Studio и сценарии их использования в разработке Android не работают с локальной моделью. Однако функция чата с ИИ в Android Studio, как правило, поддерживается локальными моделями.

Для быстрых и точных ответов по всем аспектам разработки Android и поддержки всех функций Android Studio лучшим решением будет Gemini в Android Studio , работающий на основе моделей Gemini .