Der Formfaktor von KI-Brillen bietet eine multimodale Ansicht aus der Ich-Perspektive, wenn der Nutzer mit seiner Umgebung interagiert. In Kombination mit Spracheingabe und Hardwaresensoren kann Ihre App so ein beispielloses Maß an Kontextinformationen erhalten. Um diesen Kontext in Ihrer App zu nutzen, können Sie einen In-App-Agenten verwenden und diese multimodalen Eingaben an Ihr LLM weiterleiten. Ihre App kann die Gemini Live API nutzen oder einen benutzerdefinierten KI-Agenten einbinden.
KI verantwortungsbewusst nutzen
Berücksichtigen Sie alle Aspekte des Nutzerkomforts, einschließlich sensorischer, kognitiver, sozialer und KI-bezogener Aspekte.
Apps für „Consent First“ entwickeln:
- Gehen Sie nicht davon aus, dass Sie aufzeichnen können, nur weil eine App geöffnet ist.
- Verwenden Sie explizite Trigger wie eine physische Geste, bevor Sie Sensoren aktivieren.
- Lassen Sie Ihren Agenten die Kamera einschalten, wenn er dies für die Aktivität als notwendig erachtet.
- Erheben Sie nur die Mindestmenge an Daten, die erforderlich ist, um einen Mehrwert zu bieten, verarbeiten Sie sie und verwerfen Sie sie dann.
Designaspekte für Ihren Agenten
Bei KI-Brillen ermöglichen KI-Funktionen die effiziente Ausführung von Aufgaben wie Text-zu-Sprache und Bilderkennung. KI ermöglicht die Interaktion in natürlicher Sprache anstelle von statischen Bäumen.
KI kann dazu beitragen, dass die Ausführung von Aufgaben zwischen Smartphone und Brille durch natürliche Audio-Hinweise und dezente visuelle Elemente natürlicher wirkt.
Berücksichtigen Sie bei der Einbindung eines Agents in Ihre App Folgendes:
- Sprache und Tonalität
- Kontexte des Nutzers im Alltag
- Nutzersicherheit
- Nutzer nicht überfordern
- Design für soziale Akzeptanz
Bei KI-Brillen sollte der KI-Agent prägnant und unaufdringlich sein und den Best Practices für konversationelle UX und KI-Mustern folgen.