在 Android 裝置上使用 LiteRT

Android 版 LiteRT 提供基本功能,可將高效能的自訂 ML 功能部署到 Android 應用程式中。

這張圖說明 LiteRT 的架構,LiteRT 是一種架構,可在 Android 裝置上執行機器學習模型。包括 ML 執行階段、硬體加速委派和 Google Play 服務。

適用於 ML 執行階段的 LiteRT

搭配 Google Play 服務 (Android 的官方 ML 推論執行階段) 使用 LiteRT,即可在應用程式中執行高效能的 ML 推論。瞭解詳情

使用 LiteRT 委派項進行硬體加速

使用透過 Google Play 服務發布的 LiteRT 委派項目,在 GPU 或 NPU 等專用硬體上執行加速 ML。存取裝置端進階運算功能,為使用者提供更流暢、低延遲的使用者體驗。

我們提供 GPU 委派支援,並與合作夥伴合作,透過 Google Play 服務提供自訂委派的存取權,支援進階用途。瞭解詳情

由 Google Play 服務啟用

使用 Google Play 服務存取 LiteRT 執行階段和委派項目。這可確保使用最新穩定版,同時盡量減少對應用程式二進位大小的影響。瞭解詳情

程式碼範例

查看 LiteRT Android 程式碼範例,並在裝置上測試機器學習功能。瞭解詳情

開始使用 LiteRT

下載程式碼範例,開始使用 LiteRT 和 Android。 瞭解詳情

加速服務

您可以使用 Acceleration Service API,在執行階段安全地選擇最佳硬體加速設定,不必擔心基礎裝置硬體和驅動程式。瞭解詳情