Cómo usar un modelo local

Los modelos de lenguaje grandes (LLM) difieren en sus capacidades. Para brindarte control y flexibilidad en el desarrollo de software asistido por IA, Android Studio te permite elegir el modelo que potencia la funcionalidad de IA del IDE. El modelo debe ser local y ejecutarse en tu máquina personal.

La compatibilidad con modelos locales está disponible en la versión de Feature Drop de Android Studio Narwhal 4, que puedes descargar desde el canal Canary.

Elige un modelo

Un modelo local ofrece una alternativa a la compatibilidad con LLM integrada en Android Studio. Sin embargo, Gemini en Android Studio suele proporcionar la mejor experiencia de IA para los desarrolladores de Android debido a los potentes modelos de Gemini. Puedes elegir entre una variedad de modelos de Gemini para tus tareas de desarrollo de Android, incluido el modelo predeterminado sin costo o los modelos a los que se accede con una clave de la API de Gemini pagada.

La capacidad del modelo local es una excelente opción si necesitas trabajar sin conexión, debes cumplir con políticas estrictas de la empresa sobre el uso de herramientas de IA o te interesa experimentar con modelos de investigación de código abierto.

Configura la compatibilidad con modelos locales

  1. Descarga e instala la actualización de funciones de Android Studio Narwhal 4 Canary 2 o una versión posterior.

  2. Instala un proveedor de LLM, como LM Studio o Ollama, en tu computadora local.

  3. Agrega el proveedor del modelo a Android Studio.

    • Ve a Configuración > Herramientas > IA > Proveedores de modelos.

    • Configura el proveedor del modelo:

    • Selecciona el ícono de .

    • Ingresa una descripción del proveedor del modelo (por lo general, el nombre del proveedor).

    • Cómo configurar el puerto en el que escucha el proveedor

    • Cómo habilitar un modelo

    Diálogo de configuración de Android Studio que muestra la sección de Gemini con una opción para habilitar el modo sin conexión.
    Figura 1: Es la configuración del proveedor del modelo.
  4. Descarga e instala el modelo que prefieras.

    Consulta los catálogos de modelos de LM Studio y Ollama. Para obtener la mejor experiencia con el modo de agente en Android Studio, selecciona un modelo que se haya entrenado para el uso de herramientas.

    Diálogo de configuración de Android Studio que muestra una lista de modelos locales disponibles.
    Figura 2: Modelos locales disponibles.
  5. Inicia tu entorno de inferencia.

    El entorno de inferencia entrega tu modelo a las aplicaciones locales. Configura una ventana de tokens de longitud de contexto lo suficientemente grande para obtener un rendimiento óptimo. Si quieres obtener instrucciones detalladas para iniciar y configurar tu entorno, consulta la documentación de Ollama o LM Studio.

  6. Selecciona un modelo.

    Abre Android Studio. Navega a la ventana de chat de Gemini. Usa el selector de modelos para cambiar del modelo de Gemini predeterminado a tu modelo local configurado.

    Ventana de chat de Gemini en Android Studio que muestra el selector de modelos con opciones para Gemini y un modelo local.
    Figura 3: Selector de modelos.

Después de conectar Android Studio a tu modelo local, puedes usar las funciones de chat dentro del IDE. Todas las interacciones están potenciadas por el modelo que se ejecuta en tu máquina local, lo que te brinda un entorno de desarrollo de IA autónomo.

Considera las limitaciones de rendimiento

Por lo general, un modelo local sin conexión no tendrá el mismo rendimiento ni inteligencia que los modelos de Gemini basados en la nube. Las respuestas de chat de los modelos locales suelen ser menos precisas y tener una latencia más alta en comparación con los modelos basados en la nube.

Por lo general, los modelos locales no se ajustan para el desarrollo de Android y pueden devolver respuestas que no tienen información sobre la interfaz de usuario de Android Studio. Algunas funciones basadas en IA de Android Studio y casos de uso de desarrollo para Android no funcionan con un modelo local. Sin embargo, la función de chat con IA en Android Studio generalmente es compatible con modelos locales.

Para obtener respuestas rápidas y precisas sobre todos los aspectos del desarrollo y la asistencia de Android, así como asistencia para todas las funciones de Android Studio, Gemini en Android Studio, potenciado por los modelos de Gemini, es tu mejor solución.