El factor de forma de los lentes con IA proporciona una vista multimodal y en primera persona del usuario que interactúa con su entorno. Combinado con la entrada de voz y los sensores de hardware, tiene el potencial de proporcionar un nivel sin precedentes de información contextual a tu app. Para utilizar este contexto en tu app, puedes usar un agente integrado en la app y enrutar estas entradas multimodales a tu LLM. Tu app puede aprovechar la API de Gemini Live o integrar un agente de IA personalizado.
Usa la IA de forma responsable
Diseña para todos los aspectos de la comodidad del usuario, incluidos los aspectos sensoriales, cognitivos, sociales y de comodidad con la IA.
Diseña tus apps para que se basen en el "Consentimiento primero":
- No supongas que puedes grabar porque una app está abierta.
- Usa activadores explícitos, como un gesto físico, antes de activar los sensores.
- Pídele al agente que encienda la cámara si lo considera necesario para la actividad.
- Recopila la cantidad mínima de datos necesarios para brindar valor, procesarlos y, luego, descartarlos.
Consideraciones de diseño para tu agente
En el caso de los lentes con IA, las funciones basadas en IA proporcionan una manera eficiente de realizar tareas como la conversión de texto a voz y el reconocimiento de imágenes. La IA permite la interacción a través del lenguaje natural, en lugar de árboles estáticos.
La IA puede ayudar a que completar tareas entre el teléfono y los lentes sea más natural con indicaciones de audio naturales y elementos visuales sutiles.
Cuando integres un agente en tu app, ten en cuenta lo siguiente:
- Voz y tono
- Contextos del usuario en la vida cotidiana
- Seguridad del usuario
- No abrumes al usuario
- Diseño para la comodidad social
En el caso de los lentes con IA, el agente de IA debe ser conciso y discreto, seguir las prácticas recomendadas de UX conversacional y los patrones de IA.