Menggunakan LiteRT di Android

LiteRT di Android menyediakan hal-hal penting untuk men-deploy fitur ML kustom berperforma tinggi ke dalam aplikasi Android Anda.

Diagram yang menggambarkan arsitektur LiteRT, framework untuk menjalankan model machine learning di perangkat Android. Bagian ini menunjukkan komponen yang terlibat, termasuk runtime ML, delegasi akselerasi hardware, dan layanan Google Play.

LiteRT untuk runtime ML

Gunakan LiteRT dengan layanan Google Play, runtime inferensi ML resmi Android, untuk menjalankan inferensi ML berperforma tinggi di aplikasi Anda. Pelajari lebih lanjut

Akselerasi Hardware dengan Delegasi LiteRT

Gunakan Delegasi LiteRT yang didistribusikan menggunakan layanan Google Play untuk menjalankan ML yang dipercepat pada hardware khusus seperti GPU atau NPU. Hal ini membantu Anda memberikan pengalaman pengguna yang lebih lancar dan berlatensi rendah kepada pengguna dengan mengakses kemampuan komputasi di perangkat yang canggih.

Kami memberikan dukungan untuk delegasi GPU, dan kami bekerja sama dengan partner untuk memberikan akses ke delegasi kustom mereka menggunakan layanan Google Play untuk mendukung kasus penggunaan lanjutan. Pelajari lebih lanjut

Diaktifkan oleh layanan Google Play

Gunakan layanan Google Play untuk mengakses runtime dan delegasi LiteRT. Hal ini memastikan penggunaan versi stabil terbaru sekaligus meminimalkan dampak pada ukuran biner aplikasi Anda. Pelajari lebih lanjut

Contoh kode

Tinjau contoh kode Android LiteRT dan uji fitur ML di perangkat Anda. Pelajari lebih lanjut

Mulai menggunakan LiteRT

Download contoh kode dan mulai menggunakan LiteRT dan Android. Pelajari lebih lanjut

Layanan Akselerasi

Acceleration Service API memungkinkan Anda memilih konfigurasi akselerasi hardware yang optimal dengan aman saat runtime tanpa perlu mengkhawatirkan hardware dan driver perangkat yang mendasarinya. Pelajari lebih lanjut