使用本機模型

大型語言模型 (LLM) 的功能各不相同。為讓您在 AI 輔助軟體開發過程中享有控制權和彈性,Android Studio 可讓您選擇為 IDE 的 AI 功能提供支援的模型。模型必須在本機執行,也就是在您的個人電腦上執行。

Android Studio Narwhal 4 功能推送版本支援本機模型,您可以從 Canary 管道下載

選擇模型

本機模型可做為 Android Studio 內建 LLM 支援的替代方案;不過,由於 Gemini 模型功能強大,Android Studio 中的 Gemini 通常能為 Android 開發人員提供最佳 AI 體驗。您可以為 Android 開發工作選用各種 Gemini 模型,包括免付費的預設模型,或是透過付費 Gemini API 金鑰存取的模型。

如果您需要離線工作、必須遵守公司對 AI 工具使用的嚴格政策,或是想試用開放原始碼研究模型,就很適合使用本機模型功能。

設定本機模型支援

  1. 下載並安裝 Android Studio Narwhal 4 功能推送 Canary 2 以上版本。

  2. 在本機電腦上安裝 LLM 供應商,例如 LM StudioOllama

  3. 將模型供應商新增至 Android Studio。

    • 依序前往「設定」>「工具」>「AI」>「模型供應商」

    • 設定模型供應商:

    • 選取「」圖示

    • 輸入模型供應商的說明 (通常是模型供應商的名稱)

    • 設定供應商監聽的通訊埠

    • 啟用模型

    Android Studio 設定對話方塊,顯示 Gemini 專區,以及啟用離線模式的選項。
    圖 1. 模型供應商設定。
  4. 下載並安裝所選模型。

    請參閱 LM StudioOllama 模型目錄。如要在 Android Studio 中獲得最佳的代理程式模式體驗,請選取已接受工具使用訓練的模型。

    Android Studio 設定對話方塊,顯示可用本機模型清單。
    圖 2. 可用的本機模型。
  5. 啟動推論環境。

    推論環境會將模型提供給本機應用程式。設定足夠大的脈絡長度權杖視窗,以獲得最佳效能。如需啟動及設定環境的詳細操作說明,請參閱 OllamaLM Studio 說明文件。

  6. 選取模型。

    開啟 Android Studio。前往 Gemini 對話視窗。使用模型選擇器,從預設的 Gemini 模型切換至設定的本機模型。

    Android Studio Gemini 聊天視窗,顯示模型選擇器,其中有 Gemini 和本機模型的選項。
    圖 3. 模型挑選器。

將 Android Studio 連線至本機模型後,您就可以在 IDE 中使用即時通訊功能。所有互動完全由在本機執行的模型提供,為您提供獨立的 AI 開發環境。

考慮效能限制

本機離線模型通常不會像雲端 Gemini 模型一樣高效或智慧。與雲端模型相比,本機模型產生的聊天回覆通常較不準確,延遲時間也較長。

本機模型通常不會針對 Android 開發作業進行微調,而且本機模型可能會傳回與 Android Studio 使用者介面無關的回應。使用本機模型時,部分 Android Studio AI 功能和 Android 開發用途無法運作。不過,Android Studio 的 AI 即時通訊功能通常是由本機模型支援。

如要快速取得有關 Android 開發各方面的準確回覆,並支援所有 Android Studio 功能,Gemini 版 Android Studio (由 Gemini 模型提供技術支援) 是最佳解決方案。