LiteRT für Android bietet die Grundlagen für die Bereitstellung leistungsstarker, benutzerdefinierter ML-Funktionen in Ihrer Android-App.
LiteRT für ML-Laufzeit
Verwenden Sie LiteRT mit Google Play-Diensten, der offiziellen ML-Inferenzlaufzeit von Android, um leistungsstarke ML-Inferenz in Ihrer App auszuführen. Weitere Informationen
Hardwarebeschleunigung mit LiteRT-Delegaten
Mit LiteRT-Delegaten, die über Google Play-Dienste verteilt werden, können Sie beschleunigtes ML auf spezieller Hardware wie GPUs oder NPUs ausführen. So können Sie Ihren Nutzern flüssigere Nutzererlebnisse mit geringerer Latenz bieten, indem Sie auf erweiterte On-Device-Rechenfunktionen zugreifen.
Wir bieten Unterstützung für GPU-Delegaten und arbeiten mit Partnern zusammen, um über Google Play-Dienste Zugriff auf ihre benutzerdefinierten Delegaten zu ermöglichen und so erweiterte Anwendungsfälle zu unterstützen. Weitere Informationen
Durch Google Play-Dienste aktiviert
Verwenden Sie die Google Play-Dienste, um auf die LiteRT-Laufzeit und ‑Delegaten zuzugreifen. So wird sichergestellt, dass die neuesten stabilen Versionen verwendet werden, während die binäre Größe Ihrer App minimiert wird. Weitere Informationen
Codebeispiele
Sehen Sie sich die LiteRT-Android-Codebeispiele an und testen Sie ML-Funktionen auf Ihrem Gerät. Weitere Informationen
Erste Schritte mit LiteRT
Laden Sie den Beispielcode herunter und legen Sie mit LiteRT und Android los. Weitere Informationen
Beschleunigungsdienst
Mit der Acceleration Service API können Sie zur Laufzeit sicher die optimale Hardwarebeschleunigungskonfiguration auswählen, ohne sich um die zugrunde liegende Gerätehardware und die Treiber kümmern zu müssen. Weitere Informationen