App in das Android-System für künstliche Intelligenz einbinden
Android entwickelt sich zu einem intelligenten System, das auf KI basiert. Binden Sie Ihre App über ein Self-Service-Modell ein und werden Sie Teil der nächsten Generation von agentenbasierten Funktionen auf Android.
Den richtigen Weg zu Android-KI finden
Wählen Sie aus den innovativen KI-/ML-Lösungen von Google, um die Nutzer Ihrer Android-App zu unterstützen und zu informieren.
App vorbereiten und mit dem KI-System verbinden
Stellen Sie die Funktionen Ihrer App qualifizierten Agents über AppFunctions zur Verfügung oder nutzen Sie die UI-Automatisierung auf unterstützten Geräten als Fallback.
Intelligenz in Ihre App einbinden – mit Gemini-Modellen
Implementieren Sie On-Device-Funktionen mit Gemini Nano und den ML Kit GenAI APIs oder nutzen Sie die volle Leistungsfähigkeit von Cloud- und Hybrid-KI mit Firebase AI Logic.
Intelligente Android-Apps mit KI entwickeln
Nutzen Sie agentische Tools für die Android-Entwicklung, darunter Gemini in Android Studio, die Android CLI und die offizielle Suite von Android-Skills, um Ihren Workflow zu beschleunigen.
Neue intelligente Android-Funktionen
Neue Funktion
AppFunctions
AppFunctions ist eine Android-API, die die Entwicklung von Android MCP-Integrationen vereinfachen soll. Damit können sich Ihre Apps wie On-Device-MCP-Server verhalten und Funktionen bereitstellen, die als Tools für die Verwendung durch proaktive Funktionen sowie Client-Agents und ‑Assistenten dienen. Die AppFunctions-Integration mit Gemini befindet sich derzeit in einer privaten Vorschau mit vertrauenswürdigen Testern. Sie können jedoch jetzt mit der Vorbereitung Ihrer Apps mit AppFunctions und Entwicklungstools beginnen.
Neue Funktion
UI-Automatisierung
Mit der UI-Automatisierung können Sie sich auf die agentengesteuerte Zukunft von Android vorbereiten und mehrstufige Aufgaben in ausgewählten Apps ohne Codeänderungen ausführen.
Neue Funktion
Neue ML Kit-APIs
Nutzen Sie die Audiofunktionen von Gemini Nano mit der Speech Recognition API und verkürzen Sie die Inferenzzeiten, wenn Sie die Prompt API mit der Funktion für das Präfix-Caching verwenden.
Neue Funktion
AICore-Entwicklervorschau
Nehmen Sie an der AICore-Entwicklervorschau teil, um Prototypen mit On-Device-Gemini Nano-Modellen zu erstellen. Benutzerdefinierte Prompts testen und die Leistung optimieren
Neue Funktion
Gemma 4
Mit Gemma 4, unserem offenen Modell mit erweiterten Funktionen für logisches Schlussfolgern und Tool-Aufruf, können Sie lokale agentische KI auf Android-Geräten nutzen. Sie können jetzt mit Gemma 4 in Android Studio programmieren und On-Device-KI-Funktionen mit ML Kit GenAI-APIs entwickeln.
Fallstudien zu KI
Kakao Mobility steigert Conversions um 45%
Durch die Implementierung von Gemini Nano auf dem Gerät konnte Kakao Mobility die Adresseingabe optimieren und die Zeit für die Auftragsabwicklung um 24% verkürzen. Gleichzeitig wurden die Serverkosten gesenkt und der Datenschutz für Nutzer verbessert.
Innovative Android-Apps mit Firebase-KI
Lesen Sie, wie Android-Entwickler mit Firebase AI ihren Apps Funktionen für generative KI hinzufügen.
TalkBack verwendet Gemini Nano für die Barrierefreiheit von Bildern
Dank Gemini Nano mit Multimodalität kann TalkBack klare und detaillierte Bildbeschreibungen liefern, auch wenn das Gerät offline ist oder eine instabile Netzwerkverbindung hat.
Sprachaufnahmen zusammenfassen
Die Rekorder App von Google Pixel nutzt Gemini Nano, um Offline- und On-Device-Inferenzen zu ermöglichen und Zusammenfassungen von Sprachaufnahmen zu erstellen.
Traditionelle ML-Lösungen
Nutzen Sie die Verarbeitungsfunktionen von Android-Geräten für die On-Device-Erkennung und -Klassifizierung von Bildern, Audio und Text mithilfe von ML.
Gängige Aufrufabfolgen mit ML Kit
ML Kit bietet produktionsreife Lösungen für gängige Aufgaben und erfordert kein ML-Fachwissen. Die Modelle sind integriert und für Mobilgeräte optimiert. ML Kit ist einfach zu verwenden und ermöglicht es Ihnen, sich auf die Featureentwicklung zu konzentrieren, anstatt sich um das Modelltraining und die Modelloptimierung zu kümmern.
Benutzerdefinierte Modelle mit LiteRT
Wenn Sie mehr Kontrolle benötigen oder eigene ML-Modelle bereitstellen möchten, bietet Android einen benutzerdefinierten ML-Stack, der auf LiteRT und Google Play-Diensten basiert und alle Funktionen für die Bereitstellung leistungsstarker ML-Funktionen abdeckt.
MediaPipe-Lösungen
MediaPipe bietet Open-Source-Plattformübergreifende, anpassbare ML-Lösungen für Live- und Streamingmedien.
On-Device-Auslieferung von Inhalten über YouTube
Mit Play for On-Device AI können Sie benutzerdefinierte ML- und GenAI-Modelle für On-Device-KI-Funktionen effizient bereitstellen und verwalten. Google Play vereinfacht die Modellübermittlung und hilft Ihnen, die Nutzerfreundlichkeit zu verbessern und gleichzeitig die App-Größe zu optimieren.
Entwicklung beschleunigen
KI-gestützte Tools können sich wiederholende Aufgaben automatisieren, Code vorschlagen, Fehler beheben und vieles mehr. So können Sie sich auf die Lösung von Problemen und Innovationen konzentrieren.
Gemini in Android Studio
Gemini in Android Studio ist Ihr Coding-Begleiter für die Android-Entwicklung. Sie können damit Code generieren, relevante Ressourcen finden, Best Practices lernen, Fehler beheben und Zeit sparen.
Android-Befehlszeile
Mit der Android-CLI können Sie schneller und einfacher Android-Apps mit den Agents und Entwicklungsumgebungen Ihrer Wahl erstellen.
An der AICore-Entwicklervorschau teilnehmen
Sie erhalten Vorabzugriff auf die neuesten Gemini Nano-Modelle. Testen Sie Ihre Prompts, sehen Sie sich die Leistung auf dem Gerät an und gestalten Sie die Zukunft der On-Device-KI mit, bevor sie in die Produktion geht.
Google AI Studio
Am schnellsten können Sie mit Google AI Studio loslegen. Das ist ein webbasiertes Tool, mit dem Sie Prototypen erstellen, Prompts direkt in Ihrem Browser ausführen und mit der Gemini API beginnen können.
Aktuelle Neuigkeiten und Videos
Community und Support
Wenn Sie Funktionen für generative KI entwickeln, würden wir uns gern mit Ihnen unterhalten. Füllen Sie das Formular aus, um in Kontakt zu bleiben, oder treten Sie einer bestehenden Communitygruppe bei.