AI nella tua app

Il fattore di forma degli occhiali AI offre una visualizzazione in prima persona e multimodale dell'utente che interagisce con l'ambiente. In combinazione con l'input vocale e i sensori hardware, ha il potenziale per fornire un livello senza precedenti di informazioni contestuali alla tua app. Per utilizzare questo contesto nella tua app, puoi utilizzare un agente in-app e indirizzare questi input multimodali al tuo LLM. La tua app può sfruttare l'API Gemini Live o integrare un agente AI personalizzato.

Utilizzare l'AI in modo responsabile

Progettare tenendo conto di tutti gli aspetti del comfort dell'utente, tra cui quelli sensoriali, cognitivi, sociali e di comfort con l'AI.

Progetta le tue app in base al principio "Consent First":

  • Non dare per scontato di poter registrare perché un'app è aperta.
  • Utilizza attivatori espliciti, come un gesto fisico, prima di attivare i sensori.
  • Chiedi all'agente di accendere la videocamera se lo ritiene necessario per l'attività.
  • Raccogli la quantità minima di dati necessaria per fornire valore, elaborali e poi eliminali.

Considerazioni sulla progettazione dell'agente

Per gli occhiali AI, le funzionalità di AI forniscono un modo efficiente per svolgere attività come la sintesi vocale e il riconoscimento delle immagini. L'AI consente l'interazione tramite il linguaggio naturale, anziché alberi statici.

L'AI può contribuire a rendere più naturale il completamento delle attività tra smartphone e occhiali con segnali audio naturali e immagini discrete.

Quando integri un agente nella tua app, considera:

  • Voce e tono
  • Contesti dell'utente nella vita di tutti i giorni
  • Sicurezza degli utenti
  • Non sovraccaricare l'utente
  • Design per il comfort sociale

Per gli occhiali AI, l'agente AI deve essere conciso e discreto, seguire le best practice per l'UX conversazionale e i pattern di AI.