Il fattore di forma degli occhiali AI offre una visualizzazione in prima persona e multimodale dell'utente che interagisce con l'ambiente. In combinazione con l'input vocale e i sensori hardware, ha il potenziale per fornire un livello senza precedenti di informazioni contestuali alla tua app. Per utilizzare questo contesto nella tua app, puoi utilizzare un agente in-app e indirizzare questi input multimodali al tuo LLM. La tua app può sfruttare l'API Gemini Live o integrare un agente AI personalizzato.
Utilizzare l'AI in modo responsabile
Progettare tenendo conto di tutti gli aspetti del comfort dell'utente, tra cui quelli sensoriali, cognitivi, sociali e di comfort con l'AI.
Progetta le tue app in base al principio "Consent First":
- Non dare per scontato di poter registrare perché un'app è aperta.
- Utilizza attivatori espliciti, come un gesto fisico, prima di attivare i sensori.
- Chiedi all'agente di accendere la videocamera se lo ritiene necessario per l'attività.
- Raccogli la quantità minima di dati necessaria per fornire valore, elaborali e poi eliminali.
Considerazioni sulla progettazione dell'agente
Per gli occhiali AI, le funzionalità di AI forniscono un modo efficiente per svolgere attività come la sintesi vocale e il riconoscimento delle immagini. L'AI consente l'interazione tramite il linguaggio naturale, anziché alberi statici.
L'AI può contribuire a rendere più naturale il completamento delle attività tra smartphone e occhiali con segnali audio naturali e immagini discrete.
Quando integri un agente nella tua app, considera:
- Voce e tono
- Contesti dell'utente nella vita di tutti i giorni
- Sicurezza degli utenti
- Non sovraccaricare l'utente
- Design per il comfort sociale
Per gli occhiali AI, l'agente AI deve essere conciso e discreto, seguire le best practice per l'UX conversazionale e i pattern di AI.