在 Android 上使用 LiteRT

Android 上的 LiteRT 提供将高性能自定义机器学习功能部署到 Android 应用中的必要组件。

图表:说明了 LiteRT 的架构,LiteRT 是一种用于在 Android 设备上运行机器学习模型的框架。它展示了所涉及的组件,包括 ML 运行时、硬件加速委托和 Google Play 服务。

适用于机器学习运行时的 LiteRT

将 LiteRT 与 Android 的官方机器学习推断运行时 Google Play 服务搭配使用,可在应用中运行高性能的机器学习推断。了解详情

通过 LiteRT 委托方实现硬件加速

使用通过 Google Play 服务分发的 LiteRT 委托在 GPU 或 NPU 等专用硬件上运行加速的 ML。通过访问先进的设备端计算功能,您可以为用户提供更流畅、延迟时间更短的用户体验。

我们为 GPU 委托提供支持,并与合作伙伴合作,通过 Google Play 服务提供对其自定义委托的访问权限,以支持高级使用情形。了解详情

由 Google Play 服务启用

使用 Google Play 服务访问 LiteRT 运行时和委托。这样可确保使用最新的稳定版本,同时最大限度地减小对应用二进制文件大小的影响。了解详情

代码示例

查看 LiteRT Android 代码示例,并在设备上测试机器学习功能。了解详情

LiteRT 使用入门

下载示例代码,开始使用 LiteRT 和 Android。 了解详情

加速服务

借助 Acceleration Service API,您可以在运行时安全地选择最佳硬件加速配置,而无需担心底层设备硬件和驱动程序。了解详情