Les grands modèles de langage (LLM) diffèrent par leurs capacités. Pour vous offrir contrôle et flexibilité dans le développement de logiciels assisté par l'IA, Android Studio vous permet de choisir le modèle qui alimente les fonctionnalités d'IA de l'IDE. Le modèle doit être local et s'exécuter sur votre machine personnelle.
La prise en charge des modèles locaux est disponible dans la version Feature Drop d'Android Studio Narwhal 4, que vous pouvez télécharger depuis le canal Canary.
Choisir un modèle
Un modèle local constitue une alternative à la compatibilité LLM intégrée à Android Studio. Toutefois, Gemini dans Android Studio offre généralement la meilleure expérience d'IA aux développeurs Android grâce aux puissants modèles Gemini. Vous pouvez choisir parmi différents modèles Gemini pour vos tâches de développement Android, y compris le modèle par défaut sans frais ou les modèles accessibles avec une clé API Gemini payante.
La fonctionnalité de modèle local est une excellente option si vous devez travailler hors connexion, si vous devez respecter des règles d'entreprise strictes concernant l'utilisation des outils d'IA ou si vous souhaitez expérimenter des modèles de recherche Open Source.
Configurer la prise en charge des modèles locaux
- Téléchargez et installez Android Studio Narwhal 4 Feature Drop Canary 2 ou version ultérieure. 
- Installez un fournisseur de LLM tel que LM Studio ou Ollama sur votre ordinateur local. 
- Ajoutez le fournisseur de modèle à Android Studio. - Accédez à Paramètres > Outils > IA > Fournisseurs de modèles. 
- Configurez le fournisseur de modèle : 
- Sélectionnez l'icône . 
- Saisissez une description du fournisseur du modèle (généralement le nom du fournisseur du modèle). 
- Définir le port sur lequel le fournisseur écoute 
- Activer un modèle 
   - Figure 1. Paramètres du fournisseur de modèles. 
- Téléchargez et installez le modèle de votre choix. - Consultez les catalogues de modèles LM Studio et Ollama. Pour profiter pleinement du mode Agent dans Android Studio, sélectionnez un modèle entraîné à l'utilisation d'outils.   - Figure 2. Modèles locaux disponibles. 
- Démarrez votre environnement d'inférence. - L'environnement d'inférence diffuse votre modèle aux applications locales. Configurez une fenêtre de jetons de longueur de contexte suffisamment grande pour des performances optimales. Pour obtenir des instructions détaillées sur le démarrage et la configuration de votre environnement, consultez la documentation Ollama ou LM Studio. 
- Sélectionnez un modèle. - Ouvrez Android Studio. Accédez à la fenêtre de chat Gemini. Utilisez le sélecteur de modèle pour passer du modèle Gemini par défaut à votre modèle local configuré.   - Figure 3. Sélecteur de modèles. 
Une fois que vous avez connecté Android Studio à votre modèle local, vous pouvez utiliser les fonctionnalités de chat de l'IDE. Toutes les interactions sont entièrement gérées par le modèle exécuté sur votre machine locale, ce qui vous offre un environnement de développement d'IA autonome.
Tenir compte des limites de performances
Un modèle local hors connexion n'est généralement pas aussi performant ni intelligent que les modèles Gemini basés dans le cloud. Les réponses de chat des modèles locaux sont généralement moins précises et ont une latence plus élevée que celles des modèles basés dans le cloud.
Les modèles locaux ne sont généralement pas affinés pour le développement Android et peuvent renvoyer des réponses qui ne sont pas informées sur l'interface utilisateur d'Android Studio. Certaines fonctionnalités d'IA d'Android Studio et certains cas d'utilisation du développement Android ne fonctionnent pas avec un modèle local. Toutefois, la fonctionnalité de chat IA dans Android Studio est généralement compatible avec les modèles locaux.
Pour obtenir des réponses rapides et précises sur tous les aspects du développement Android et une assistance pour toutes les fonctionnalités d'Android Studio, Gemini dans Android Studio, optimisé par les modèles Gemini, est la meilleure solution.
