LiteRT auf Android-Geräten verwenden

LiteRT für Android bietet die Grundlagen für die Bereitstellung leistungsstarker, benutzerdefinierter ML-Funktionen in Ihrer Android-App.

Diagramm zur Architektur von LiteRT, einem Framework zum Ausführen von Modellen für maschinelles Lernen auf Android-Geräten. Es zeigt die beteiligten Komponenten, einschließlich der ML-Laufzeit, der Hardwarebeschleunigungs-Delegaten und der Google Play-Dienste.

LiteRT für ML-Laufzeit

Verwenden Sie LiteRT mit Google Play-Diensten, der offiziellen ML-Inferenzlaufzeit von Android, um leistungsstarke ML-Inferenz in Ihrer App auszuführen. Weitere Informationen

Hardwarebeschleunigung mit LiteRT-Delegaten

Mit LiteRT-Delegaten, die über Google Play-Dienste verteilt werden, können Sie beschleunigtes ML auf spezieller Hardware wie GPUs oder NPUs ausführen. So können Sie Ihren Nutzern flüssigere Nutzererlebnisse mit geringerer Latenz bieten, indem Sie auf erweiterte On-Device-Rechenfunktionen zugreifen.

Wir bieten Unterstützung für GPU-Delegaten und arbeiten mit Partnern zusammen, um über Google Play-Dienste Zugriff auf ihre benutzerdefinierten Delegaten zu ermöglichen und so erweiterte Anwendungsfälle zu unterstützen. Weitere Informationen

Durch Google Play-Dienste aktiviert

Verwenden Sie die Google Play-Dienste, um auf die LiteRT-Laufzeit und ‑Delegaten zuzugreifen. So wird sichergestellt, dass die neuesten stabilen Versionen verwendet werden, während die binäre Größe Ihrer App minimiert wird. Weitere Informationen

Codebeispiele

Sehen Sie sich die LiteRT-Android-Codebeispiele an und testen Sie ML-Funktionen auf Ihrem Gerät. Weitere Informationen

Erste Schritte mit LiteRT

Laden Sie den Beispielcode herunter und legen Sie mit LiteRT und Android los. Weitere Informationen

Beschleunigungsdienst

Mit der Acceleration Service API können Sie zur Laufzeit sicher die optimale Hardwarebeschleunigungskonfiguration auswählen, ohne sich um die zugrunde liegende Gerätehardware und die Treiber kümmern zu müssen. Weitere Informationen