Android で LiteRT を使用する

Android の LiteRT は、高性能のカスタム ML 機能を Android アプリにデプロイするための基本機能を提供します。

Android デバイスで ML モデルを実行するためのフレームワークである LiteRT のアーキテクチャを示す図。ML ランタイム、ハードウェア アクセラレーション デリゲート、Google Play 開発者サービスなどのコンポーネントを示します。

ML ランタイム用の LiteRT

Google Play 開発者サービスと Android の公式 ML 推論ランタイムである LiteRT を使用して、アプリで高性能 ML 推論を実行します。詳細

LiteRT デリゲートによるハードウェア アクセラレーション

Google Play 開発者サービスを使用して配布される LiteRT デリゲートを使用して、GPU や NPU などの専用ハードウェアで高速化された ML を実行します。これにより、高度なオンデバイス コンピューティング機能にアクセスして、よりスムーズでレイテンシの低いユーザー エクスペリエンスをユーザーに提供できます。

Google は GPU デリゲートをサポートしています。また、パートナーと協力して、Google Play 開発者サービスを使用してカスタム デリゲートにアクセスし、高度なユースケースをサポートできるように取り組んでいます。詳細

Google Play 開発者サービスによって有効化

Google Play 開発者サービスを使用して、LiteRT ランタイムとデリゲートにアクセスします。これにより、アプリのバイナリサイズへの影響を最小限に抑えながら、最新の安定版を使用できます。詳細

コードサンプル

LiteRT Android コードサンプルを確認し、デバイスで ML 機能をテストします。詳細

LiteRT を使ってみる

サンプルコードをダウンロードして、LiteRT と Android を使い始めましょう。詳細

アクセラレーション サービス

Acceleration Service API を使用すると、基盤となるデバイスのハードウェアやドライバを気にすることなく、実行時に最適なハードウェア アクセラレーション構成を安全に選択できます。詳細