Ganadores de ADC
Ganadora
Esske optimiza la experiencia del dinero móvil para los usuarios del Congo y hace que sea más intuitiva y accesible.

Desarrollador: David Kathoh

Ubicación: Goma, República Democrática del Congo

Ganadora
UnoDogs ayuda a los dueños a mejorar el bienestar de su mascota, brindándoles información personalizada y programas de entrenamiento.

Desarrollador: Chinmay Mishra

Ubicación: Nueva Delhi, India

Ganadora
AgriFarm ayuda a los agricultores a detectar enfermedades en las plantas y evitar grandes daños.

Desarrollador: Mirwise Khan

Ubicación: Baluchistán, Pakistán

Ganadora
Stila ayuda a supervisar y hacer un seguimiento de los niveles de estrés del cuerpo, para que los usuarios puedan comprender y controlar mejor el estrés en sus vidas.

Desarrollador: Yingding Wang

Ubicación: Múnich, Alemania

Ganadora
La app de Snore and Cough identifica los ronquidos y episodios de tos para ayudar a los usuarios a buscar asistencia de un profesional médico.

Desarrollador: Ethan Fan

Ubicación: Mountain View, California, EE.UU.

Ganadora
Con Leepi, los estudiantes pueden aprender los gestos y los símbolos de las manos para la lengua de señas estadounidense.

Desarrollador: Prince Patel

Ubicación: Bangalore, India

Ganadora
MixPose es una plataforma de transmisión en vivo que permite a los profesores de yoga y a los profesionales del entrenamiento realizar un seguimiento de la alineación y proporcionar comentarios en tiempo real.

Desarrollador: Peter Ma

Ubicación: San Francisco, California, EE.UU.

Ganadora
Path Finder podría ayudar a las personas con discapacidad visual a atravesar situaciones complejas mediante la detección de objetos y el cálculo de trayectoria.

Desarrollador: Colin Shelton

Ubicación: Addison, Texas, EE.UU.

Ganadora
Trashly facilita los procesos de reciclaje para que los usuarios puedan reducir su desperdicio.

Desarrollador: Elvin Rakhmankulov

Ubicación: Chicago, Illinois, EE.UU.

Ganadora
AgroDoc ayuda a recopilar datos de agricultores con ubicaciones geográficas y climas similares para diagnosticar enfermedades de las plantas y hacer planes de tratamiento

Desarrollador: Navneet Krishna

Ubicación: Kochi, India

Introducción

Palabras de Luke Dormehl

Ilustración de Hannah Perry

"Los avances en el aprendizaje automático ya están haciendo que nuestra vida diaria sea más fácil y enriquecedora".

Un ojo rojo mira a su usuario sin parpadear. El sistema habla con una voz fría y sin emoción. "Lo siento, Dave", dice. "Me temo que no puedo hacer eso". En esta escena icónica de 2001: odisea del espacio, el protagonista se enfrenta al asistente menos útil del mundo, HAL 9000. En nombre de la autopreservación, el sistema de IA anula sus órdenes, lo que lleva a la desaparición de la tripulación. Este no es el futuro que todos quisieran ver. Las personas quieren que las computadoras ayuden a la humanidad, no que la reemplacen ni la estorben. Esperan a un mundo utópico, no distópico, en el que la tecnología ayude a encontrar soluciones, no generar más problemas. En la actualidad, la tecnología es más eficaz que nunca. Por lo tanto, la manera en que la diseñamos y usamos debe ser igual de importante para su funcionamiento. Al poner a la humanidad en primer plano, podemos desarrollar tecnologías que cambien nuestro futuro para mejor.

Pero eso no significa que tenemos que esperar hasta que eso suceda. Varias tecnologías de accesibilidad impulsadas por avances en el aprendizaje automático ya están haciendo que nuestra vida diaria sea más fácil y enriquecedora. Los vehículos autónomos que tienen el potencial de reducir el embotellamiento, la contaminación y los accidentes de tránsito comienzan a surgir. Asimismo, otras tecnologías, como las herramientas de traducción asistidas por el AA, el software de diagnóstico médico y los dispositivos contextuales, son parte de la rutina diaria de muchas personas. Funciones como Redacción inteligente en Gmail, que brinda sugerencias a medida que los usuarios escriben mensajes; Transcripción instantánea en Android, que puede ayudar a las personas sordas o con hipoacusia a recibir subtítulos instantáneos de voz a texto en más de 70 idiomas y dialectos; o el siempre listo Asistente de Google, que ayuda a millones de personas a mantener el ritmo de sus horarios diarios, exhiben la visión de Google para crear un futuro mejor con tecnología.

En ninguna parte es más importante esta idea de innovación útil que en los dispositivos móviles. Desde su lanzamiento en 2008, Android se convirtió en la plataforma para dispositivos móviles más popular del mundo. Los avances en el reconocimiento de imágenes con el aprendizaje automático significan que los usuarios pueden apuntar la cámara de un smartphone a texto y recibir la traducción al instante en 88 idiomas distintos a través de Google Traductor. Dado que los teléfonos celulares se están convirtiendo en el dispositivo preferido en todo el mundo, especialmente en los mercados de rápido crecimiento del mundo en desarrollo, es fundamental que las nuevas herramientas se implementen teniendo en cuenta las aplicaciones centradas en el ser humano. La innovación útil tiene el potencial de cambiar la forma en que obtenemos, usamos e interpretamos la información, poniéndola a nuestra disposición cuando más la necesitamos y en el lugar indicado.

Esto significa que la previsión aumenta y genera advertencias directamente a las personas afectadas. Incluso tomar una foto rápida de un elemento, como una taza de café, y obtener instrucciones sobre cómo llegar a un punto de reciclaje cercano. El desarrollo de nuevas tecnologías no es un camino sencillo. Se basa en avances de hardware, nuevos descubrimientos en software y en los desarrolladores que crean estas nuevas experiencias. Al enfocarse en la "Innovación útil", el Android Developer Challenge pone en acción ejemplos reales de aprendizaje automático para los usuarios y motiva a la próxima ola de desarrolladores a descubrir lo que es posible con esta nueva tecnología.

Introducción

Palabras de Christopher Katsaros

Entrevista por Joanna Goodman

Ilustración de Ori Toor

Si acabas de graduarte de la universidad, un mouse es esa criatura molesta que a veces se arrastra por tu dormitorio durante la noche. Solo usaste un mouse de computadora pocas veces y este estaba conectado a un sistema desactualizado en el sótano de la biblioteca de la escuela. Sin embargo, el mouse de la computadora fue un paso radical para la personalización de la computación, lo que facilitó la interacción de las computadoras.

En una época en la que el fundador de Digital Equipment Corporation, un importante productor de computadoras estadounidense de 1960 a 1990, dijo: "No hay motivo para que alguien quiera tener una computadora en su casa". Steve Jobs fue pionero de la interfaz gráfica de usuario (con el mouse como objeto principal), lo que marcó el comienzo de la computación personal y una nueva era en el diseño. Desde entonces, el diseño informático pasó por dos importantes revoluciones más: cada una es un cambio importante para lograr que nuestra relación con los dispositivos sea más cercana, más personal y más humana.

iOS y Android dieron inicio al primer cambio importante, con la oleada de los dispositivos móviles. Al principio, los dispositivos móviles eran más básicos: pantallas más pequeñas, menos energía y menos funciones. Sin embargo, los desarrolladores se dieron cuenta rápidamente de que no todo era negativo. Acciones como deslizar, presionar, tocar (la jerga de los dispositivos móviles) hicieron que se piense más allá de la pantalla; nuestro lienzo ya no es más el borde de un monitor. Ahora hay capas sobre capas de información, listas y esperando para servirte. Y debido al contexto de la ubicación, la identidad, desde entonces, el diseño de computación pasó por dos importantes revoluciones más, cada una es un cambio importante para lograr que nuestra relación con los dispositivos sea más cercana, más personal y más humana.

iOS y Android dieron inicio al primer cambio importante, con la oleada de los dispositivos móviles. Al principio, los dispositivos móviles eran más básicos: pantallas más pequeñas, menos energía y menos funciones. Sin embargo, los desarrolladores se dieron cuenta rápidamente de que no todo era negativo. Acciones como deslizar, presionar, tocar (la jerga de los dispositivos móviles) hicieron que se piense más allá de la pantalla; nuestro lienzo ya no es más el borde de un monitor. Ahora hay capas sobre capas de información, listas y esperando para servirte. Con el contexto de la ubicación, la identidad, el movimiento y las experiencias humanas desbloqueadas a través de dispositivos móviles eclipsaron lo que las computadoras de escritorio podrían proporcionar. El aprendizaje automático, el siguiente cambio importante, introdujo claramente la evolución hacia el diseño centrado en el ser humano.

Si fue audaz sugerir que las computadoras podrían ser útiles en una casa, seguramente es más atrevido pensar que puedes tener una conversación con ellas. Incluso puedes apuntar la cámara a una hermosa flor, usar Google Lens para identificar la especie y, luego, establecer un recordatorio a fin de pedir un ramo para mamá: "Google Lens puede usar modelos de visión artificial para expandir y acelerar las búsquedas", explica Jess Holbrook, investigador sénior de personal de Google y codirector del equipo de People + AI Research. “No siempre necesitas la cámara para buscar, pero es útil si olvidas el nombre de algo o tienes que detenerte y escribir una descripción larga. Es mucho más rápido usar la cámara".

Una entrevista con Yossi Matias

Palabras de Luke Dormehl

Ilustración de Manshen Lo

Yossi Matias es vicepresidente de Ingeniería de Google, director gerente fundador del Centro de Investigación y Desarrollo de Google en Israel, y codirector de IA para el bien social.

Como líder de pensamiento destacado en todo lo relacionado con la IA, Matias habla sobre el potencial del aprendizaje automático en el dispositivo, los entornos inteligentes y el uso de la IA para el bien de la humanidad.

P.: ¿Qué impulsa tu trabajo y tu interés en la IA?

R.: Me interesa desarrollar tecnología y usarla para resolver problemas difíciles de manera que generen un impacto. Los proyectos en los que estoy trabajando incluyen esfuerzos de IA de conversación, como Google Duplex, un sistema automatizado que usa voces que suenan naturales para realizar tareas por teléfono, como hacer reservas en restaurantes; Read It, que permite que a Asistente de Google lea artículos web en voz alta en un teléfono; y tecnologías del dispositivo, como el filtro de llamadas y el Subtitulado instantáneo. También me interesa el uso general de la IA para el bien social. Algunos ejemplos de esto incluyen la realización de una mejor previsión de inundaciones mediante el aprendizaje automático, computación en la nube, simulaciones de hidráulicas y otras tecnologías.

P.: ¿Cómo se formó la iniciativa IA para el bien social?

R.: Un atributo atractivo que veo en la cultura de Google es que muchas personas se preocupan por encontrar formas de resolver problemas importantes mediante la tecnología. La IA para el bien social puede realizarse en muchas áreas: salud, biodiversidad, ayuda con la accesibilidad, respuesta a emergencias, sustentabilidad, etcétera. Algunos de nosotros en Google nos reunimos y, luego, identificamos problemas que, si podemos ayudar a resolverlos, realmente podían beneficiar la vida de las personas y la sociedad de manera sustancial. Entonces, creamos la IA para el bien social a fin de brindar asistencia a cualquier persona, dentro o fuera de Google, que trabaja con iniciativas relacionadas con el bien social. Las tecnologías de aprendizaje automático actuales, que están disponibles a través de la nube, permiten que muchas personas de todo el mundo obtengan las herramientas para identificar y, posiblemente, resolver problemas sociales reales. Eso es incomparable en la historia.

P.: ¿Qué papel pueden desempeñar las tecnologías de los dispositivos?

Los dispositivos móviles actuales son cada vez más eficaces. Eso nos da la oportunidad de aprovechar las técnicas de aprendizaje automático que se pueden ejecutar en ellos. Esto es importante por varias razones, como acceder a ciertas aplicaciones al instante y no depender de la conectividad. También es importante en situaciones en que se debe procesar información personal y no queremos que ningún dato abandone el dispositivo. El filtro de llamadas, el Subtitulado instantáneo y la Transformación instantánea a voz son ejemplos de cómo el uso de la IA de conversación en el dispositivo puede ayudar a los usuarios a controlar mejor sus llamadas entrantes, permitir a las personas que tienen dificultades auditivas ver los subtítulos instantáneos y hasta tener conversaciones telefónicas.

P.: ¿Por qué la inteligencia ambiental cambia tanto las reglas del juego?

R.: El poder de la tecnología útil surge cuando está tan incorporada en nuestro entorno que simplemente funciona sin que tengamos que prestarle atención. Muchas tecnologías nos sorprenden al principio, pero pronto las damos por sentadas. La IA de conversación elimina las barreras de la modalidad y los idiomas, y permite una mejor interacción. Al hacer que las máquinas nos entiendan mejor y nos hablen de forma natural, en un entorno natural, con el fin de pasar a ser un entorno ambiental, los usuarios pueden quitar la carga cognitiva de tener que pedir explícitamente que se haga algo e interactuar de forma más natural.

P.: ¿Por qué es tan importante que las herramientas de aprendizaje automático sean accesibles?

R.: Android Developer Challenge muestra la importancia de abrir la nube y la tecnología del dispositivo. Nos encanta ver las innovaciones que vienen de todo el mundo. Deseamos poder alentar, apoyar, inspirar y asesorar siempre que podamos. Estoy muy entusiasmado por lo que vi de quienes participaron en este programa. Si podemos ayudarlos a escalar su pasión a nivel mundial y aprovechar las tecnologías de vanguardia, veremos resultados innovadores y asombrosos, que pueden ser absolutamente útiles para las personas.

TensorFlow Lite

Palabras de Luke Dormehl

Ilustración de Sarah Maxwell

¿Cómo puedes aprovechar las revolucionarias herramientas y capacidades de aprendizaje automático en un dispositivo móvil? La respuesta es TensorFlow Lite. Este eficaz framework de aprendizaje automático puede ayudar a ejecutar modelos de aprendizaje automático en dispositivos iOS y Android que normalmente no podrían admitirlos. En la actualidad, TensorFlow Lite está activo en miles de millones de dispositivos en todo el mundo. Además, el conjunto de herramientas se puede usar para todo tipo de aplicaciones eficaces relacionadas con redes neuronales, desde la detección de imágenes hasta el reconocimiento de voz, incorporando la última tecnología de vanguardia a los dispositivos que llevamos con nosotros dondequiera que vayamos.

TensorFlow Lite permite que gran parte del procesamiento del aprendizaje automático se lleve a cabo en los propios dispositivos, con modelos menos exigentes en términos de procesamiento, que no tienen que depender de un servidor ni de un centro de datos. Estos modelos se ejecutan más rápido, ofrecen posibles mejoras de privacidad, exigen menos energía (la conectividad puede consumir mucha batería) y, en algunos casos, no requieren conexión a Internet. En Android, TensorFlow Lite accede a aceleradores de dispositivos móviles de especialistas a través de la API de red neuronal, lo que proporciona un rendimiento aún mejor y reduce el uso de energía.

"TensorFlow Lite habilita casos de uso que antes no eran posibles, ya que las latencias de ida y vuelta al servidor hicieron que esas aplicaciones no se iniciaran", dice Sarah Sirajuddin, directora de Ingeniería de TensorFlow Lite. "Algunos ejemplos son el reconocimiento de voz en el dispositivo, las funciones interactivas de video en tiempo real y las mejoras en tiempo real en el momento de la captura de fotos". "La innovación en este espacio fue enorme y se espera aún más", continúa explicando. "El otro aspecto interesante de esto es que facilita el aprendizaje automático, lo que ayuda a potenciar la creatividad y el talento".

Palabras de Luke Dormehl

Ilustración de Sarah Maxwell

ML Kit

Palabras de Joanna Goodman

Ilustración de Tor Brandt

El Kit de AA pone las tecnologías de aprendizaje automático de Google a disposición de los desarrolladores de apps para dispositivos móviles, de modo que puedan crear experiencias interactivas y personalizadas. Esto incluye herramientas como traducción de idiomas, reconocimiento de texto, detección de objetos y mucho más. El Kit de AA te permite identificar, analizar y, en algunos casos, comprender los datos visuales y de texto en tiempo real y de manera centrada en la privacidad del usuario, ya que los datos permanecen en el dispositivo. "Hace que el aprendizaje automático sea mucho más accesible", comenta Brahim Elbouchikhi, director de Administración de Productos.

"Ofrecemos los mejores modelos de AA de Google, disponibles como un conjunto sencillo de herramientas, de modo que los desarrolladores ya no necesiten ser expertos en AA para poder crear apps con la tecnología del AA. Toda la complejidad está oculta, por lo que los desarrolladores pueden enfocarse en su producto principal". Por ejemplo, las herramientas como los ID de idiomas te ayudan a identificar el idioma de una string de texto, y la detección y el seguimiento de objetos pueden ayudar a localizar y rastrear en tiempo real uno o más objetos en una imagen o un feed de cámara en vivo.

Es lo que ayuda a las apps ganadoras del Android Developer Challenge como Trashly a diferenciar entre materiales reciclables y no reciclables, o en el caso de UnoDogs, a diferenciar entre perros saludables y no saludables. ¿Y qué nos depara el futuro? El objetivo es que la tecnología desaparezca en un segundo plano y que los dispositivos comprendan mejor nuestras necesidades, explica Elbouchikhi. "El Kit de AA nos ayuda a cumplir con esa promesa, lo que permite a los desarrolladores crear experiencias que sean intuitivas y adaptables, de manera que promuevan la privacidad y la confianza del usuario".

Palabras de Joanna Goodman

Ilustración de Tor Brandt

Ganador de ACD

Desarrolladores: David Mumbere Kathoh, Nicole Mbambu Musimbi

Ubicación: Goma, República Democrática del Congo

En la actualidad, más de 400 millones de personas usan un servicio llamado dinero móvil todos los días, lo que te permite enviar dinero, pagar facturas de servicios públicos o retirar dinero en efectivo de terminales con dinero móvil usando USSD, esos códigos rápidos que envías en tu teléfono. Si bien las personas de todo el mundo usan dinero móvil, es particularmente útil para los habitantes de un país como la República Democrática del Congo (RDC), donde el 46% de la población vive en áreas rurales sin bancos tradicionales ni acceso estable a Internet. Lamentablemente, el proceso lleva mucho tiempo y es difícil de usar, especialmente para las personas que tienen dificultades para leer y trabajar con números. Un movimiento en falso, y tienen que empezar de nuevo.

Además, si se usa un código incorrecto, se puede enviar dinero a la persona equivocada. Esske optimiza la experiencia y logra que sea más intuitiva y accesible. Dentro de la app, los usuarios pueden leer y realizar un seguimiento de sus transacciones en vivo. También pueden transferir dinero, pagar facturas, comprar suscripciones y aumentar el tiempo de comunicación esencial para enviar SMS, usar datos y hacer llamadas. Mientras que la mayoría de los servicios de banca móvil requieren que los usuarios ingresen manualmente el código USSD de su teléfono celular, la función de retiro rápido de Eskke procesa esta información de manera automática.

Las herramientas como el reconocimiento de texto sin conexión y el escaneo de códigos de barras desde el Kit de AA permiten que los usuarios escaneen el código QR de una terminal con dinero móvil y retiren el dinero rápidamente. La app está disponible para los usuarios en la RDC y se expandirá para admitir operadores de dinero móvil en otros países africanos.

Palabras de Arielle Bier

Ilustración de Frances Haszard

Ganador de ADC

Desarrolladores: Elvin Rakhmankulov, Arthur Dickerson, Gabor Daniel Vass, Yury Ulasenka

Ubicación: Chicago, EE.UU.

A medida que el cambio climático se hace sentir en todo el mundo, las personas buscan reducir su huella de carbono y enviar menos residuos a los vertederos.

Si bien la mayoría de las ciudades proporcionan servicios de reciclaje, muchos lugares tienen reglas, restricciones y regulaciones diferentes. Debido al etiquetado deficiente y a las políticas inconsistentes, los objetos no reciclables ocupan más del 25% de los contenedores de reciclaje.

Trashly hace que el reciclaje sea más fácil para los consumidores. Apunta la cámara del dispositivo a un elemento y, a través de la detección de objetos, la app identifica y clasifica vasos de plástico y papel, bolsas, botellas, etc. Después de analizar esta información a través de un modelo personalizado de TensorFlow Lite, informa si el objeto es reciclable y cómo reciclarlo, según las reglas locales, y comparte detalles sobre contenedores de reciclaje cercanos.

Actualmente, Trashly está disponible en Illinois, Pensilvania y California, y permite encontrar 1,000 centros de reciclaje con la función de proximidad. Además, el equipo de la app tiene pensado expandirse a otros estados y países más adelante, lo que ayudará a fomentar hábitos responsables que marquen la diferencia.

Palabras de Arielle Bier

Ilustración de Aless Mc

Ganador de ADC

Desarrollador: Chinmay Mishra

Ubicación: Nueva Delhi, India

"Queremos usar el AA para capacitar a los dueños de perros a fin de evaluar con precisión la salud general de cada animal y trabajar en ella".

Los perros dependen de sus dueños para el ejercicio, la comida y el cuidado diarios. Sin embargo, a pesar de sus mejores intenciones, muchos perros queridos terminan con sobrepeso, lo que reduce la vida útil del animal hasta en un 25%. UnoDogs ayuda a los dueños a mejorar el bienestar de su mascota, brindándoles información personalizada y programas de entrenamiento. Mediante el seguimiento y la medición del estado de un perro, además de consejos precisos, UnoDogs aborda los problemas de salud antes de que se presenten.

Gracias a la capacidad de AutoML Vision de Google Cloud Platform de capacitar un modelo de detección de objetos para analizar imágenes en vivo, UnoDogs puede calcular la condición corporal de un perro y brindar recomendaciones sobre el peso y tamaño ideales. En futuras versiones, estarán disponibles más funciones impulsadas por el AA, como recomendaciones de alimentos, pruebas de agilidad y planes de entrenamiento.

Los detalles del seguimiento del peso y el ejercicio se combinan luego con análisis en tiempo real, lo que brinda programas de alimentación y ejercicios fáciles de seguir, diseñados para mantener al dueño enfocado e inspirado en lograr que su perro pueda llevar su mejor vida.

Palabras de Arielle Bier

Ilustración de Choi Haeryung

Ganador de ADC

Desarrolladores: Mirwise Khan, Samina Ismail, Ehtisham Ahmed, Hassaan Khalid

Ubicación: Baluchistán, Pakistán

"Estamos ayudando a conectar a los agricultores y a usar la IA para mejorar su productividad".

Las enfermedades de los cultivos representan una amenaza constante para los agricultores de todo el mundo. Además, los impactos de la inseguridad alimentaria en la salud, la sociedad y la economía pueden ser devastadores. AgriFarm ayuda a los agricultores a detectar enfermedades en las plantas y evitar grandes daños. A fin de hacer esto, el clasificador de redes neuronales profundas, que se usa para identificar el tipo de enfermedad, se aloja en AI Platform de Google Cloud.

Entre otras funciones, se incluyen informes meteorológicos, recomendaciones de videos y predicciones de precios. Diseñada para su uso en áreas rurales remotas, con acceso limitado a Internet, AgriFarma puede usarse con frutas y verduras, como tomates, maíz y papas, y expande el conjunto de datos para que funcione de forma global.

Palabras de Arielle Bier

Ilustración de Buba Viedma

Ganador de ADC

Desarrollador: Navneet Krishna

Ubicación: Kochi, India

"AgroDoc realmente podría ayudar a las personas que tienen menos experiencia en agricultura".

AgroDoc, un modelo de participación colectiva, ayuda a recopilar datos de agricultores con ubicaciones geográficas y climas similares para diagnosticar enfermedades en las plantas y hacer planes de tratamiento. Con la app, la cámara del dispositivo escanea una hoja infectada y la biblioteca TensorFlow Lite ayuda a detectar el tipo de enfermedad.

Los datos se analizan en combinación con síntomas clave y se proporcionan pasos simples para mejorar la salud de la planta.

Palabras de Arielle Bier

Ilustración de Buba Viedma

Ganador de ADC

Desarrollador: Yingding Wang

Ubicación: Múnich, Alemania

"En la sociedad moderna, las cosas cambian tan rápido y la presión laboral es tan alta que nuestro cuerpo reacciona a esos desafíos como si lo estuviera persiguiendo un tigre".

El estrés se presenta de muchas formas, tanto positivas como negativas. Afortunadamente, nuestros cuerpos están diseñados para autorregularse y adaptarse a las circunstancias cambiantes. Sin embargo, cuando las condiciones o los eventos extremos causan altos niveles de estrés, se pueden acumular efectos negativos que generan ansiedad, depresión y daños en la salud a largo plazo. Stila (que en inglés hace referencia al "seguimiento del estrés en las actividades de aprendizaje") supervisa y registra los niveles de estrés del cuerpo para que los usuarios puedan comprender y controlar mejor el estrés. Para ello, la app de smartphone funciona junto con un dispositivo wearable, como una pulsera Fitbit o un dispositivo que ejecute Wear OS by Google, a fin de registrar su biorretroalimentación.

Un modelo personalizado de Firebase detecta y clasifica el estrés, mientras que el intérprete de TensorFlow Lite permite que la información se procese sin conexión. La app hace un seguimiento de los niveles de estrés del cuerpo y se combina con informes breves de los acontecimientos y el entorno del usuario. Luego, se calcula una puntuación de nivel de estrés para ayudar a estimar el estrés durante la realización de ciertas actividades. Debido a que cada persona reacciona a los factores causantes del estrés y a los estímulos de diferentes maneras, Stila aprende de estos informes y adapta su funcionamiento. Luego, proporciona comentarios en función de las necesidades y los ritmos de cada usuario.

Se pueden usar rasgos individuales para personalizar aún más la experiencia del usuario a través del aprendizaje por transferencia. Mediante la detección y supervisión de los niveles de estrés a lo largo del tiempo, los usuarios tienen la oportunidad de controlar mejor el estrés en sus vidas.

Palabras de Arielle Bier

Ilustración de Linn Fritz

Ganador de ADC

Desarrolladores: Peter Ma, Sarah Han

Ubicación: San Francisco, EE.UU.

"Todos somos practicantes habituales de yoga y desarrolladores de software. Queremos explorar cómo las tecnologías pueden ayudar a mejorar las experiencias de yoga y entrenamiento".

MixPose es una plataforma de transmisión en vivo que ofrece a los profesores de yoga y a los profesionales del entrenamiento la oportunidad de enseñar, hacer un seguimiento de la alineación y proporcionar comentarios en tiempo real. Los videos de entrenamiento estáticos solo comparten información en una dirección. Con esta app, los profesores pueden personalizar sus lecciones y satisfacer de forma directa las necesidades de sus alumnos. El seguimiento de poses detecta los movimientos de cada usuario, y las posiciones se clasifican mediante el kit de AA y PoseNet.

Luego, los sensores en vivo y los sistemas de comentarios proporcionan información sobre su alineación. La salida agregada a las funciones de video, como Chromecast, se conecta fácilmente a pantallas más grandes para una visualización más envolvente. MixPose, diseñada para los 37 millones de estadounidenses que practican yoga, está sumando a más de 100 profesores de yoga para su lanzamiento. Mediante la innovación a través de la IA en el perímetro, 5G y smart TVs, esta plataforma ofrece cursos interactivos de forma directa a los usuarios en la comodidad de su hogar.

Palabras de Arielle Bier

Ilustración de Rachel Levit Ruiz

Ganador de ACD

Desarrolladores: Prince Patel, Aman Arora, Aditya Narayan

Ubicación: Bangalore, India

"En la India, cerca de 7 millones de personas tienen discapacidades para oír y hablar".

En la India, más de siete millones de personas tienen discapacidades para oír y hablar. Sin embargo, pocos tienen acceso a la educación en lenguaje de señas. Debido a que el rango de idiomas y dialectos es tan diverso, crear un modelo estándar de comunicación es casi imposible.

Con Leepi, los estudiantes pueden aprender los gestos y los símbolos de las manos para la lengua de señas estadounidense. La app usa el reconocimiento de letras, símbolos, rostros e intents, con ejercicios interactivos y comentarios en tiempo real. La biblioteca de TensorFlow Lite y el framework de MediaPipe se usaron para hacer que el procesamiento del dispositivo sea más preciso y optimizado. Y, lo que es más importante, está diseñada para usarse sin conexión, por lo que más estudiantes pueden aprender sin barreras.

Palabras de Arielle Bier

Ilustración de Xuetong Wang

Ganador de ADC

Desarrollador: Ethan Fan

Ubicación: Mountain View, California, EE.UU.

"Nuestra solución es usar la clasificación de audio a través del aprendizaje profundo".

Dormir bien es fundamental para que nuestro cuerpo descanse y se recupere. Sin embargo, el 25% de los adultos ronca con regularidad, lo que podría ocasionar interrupciones del sueño y problemas de salud potencialmente crónicos.

A través de la captura, el análisis y la clasificación de audio con TensorFlow Lite, la app de Snore and Cough identifica los ronquidos y la tos para ayudar a los usuarios que buscan asistencia de un profesional médico.

Palabras de Arielle Bier

Ilustración de Xuetong Wang

Ganador de ADC

Desarrolladores: Colin Shelton, Jing Chang, Sam Grogan y Eric Emery

Ubicación: Addison, Texas, EE.UU.

"Queríamos aprovechar el aprendizaje automático para lograr un bien público".

Cuando recorres entornos públicos, como un centro comercial o una calle concurrida, los obstáculos en movimiento cambian constantemente de manera inesperada. Las experiencias sensoriales, como la vista, el sonido y el tacto, pueden ayudar a evitar colisiones y accidentes. Sin embargo, para las personas con discapacidad visual, recorrer entornos públicos significa enfrentarse a una serie de incógnitas. Path Finder podría ayudar a las personas con discapacidad visual a atravesar situaciones muy complejas mediante la identificación y el cálculo de las trayectorias de los objetos que se mueven en su camino.

Las alertas personalizadas informan al usuario sobre cómo evitar estos obstáculos y sugieren acciones que pueden realizar de forma segura. Esta app usa la detección de objetos de TensorFlow Lite para calcular las distancias de los objetos que te rodean. Se diseñó para mejorar la experiencia del usuario, compartir información y brindar asistencia, no para confundirlo en situaciones difíciles. Por esta razón, el proceso de configuración de Path Finder se diseñó a fin de ser conversacional y está personalizado para usuarios con visión limitada, así como para las personas que los ayudan.

Tanto los comentarios audibles como la respuesta táctil son parte del sistema de alertas de obstáculos, mientras que una variedad de presentaciones y frecuencias comunican la distancia y la dirección de cada objeto. Los patrones de audio, como el código Morse, se superponen y combinan para compartir más información. Path Finder puede ayudar a los usuarios con discapacidad visual a aprovechar la ventaja de la previsión y hacer que los entornos públicos sean más fáciles de recorrer.

Palabras de Arielle Bier

Ilustración de Sonya Korshenboym

A la fecha de nuestra publicación, todos los desarrolladores estaban trabajando arduamente para dar vida a los conceptos de sus aplicaciones, de modo que estuvieran disponibles a fin de que los pruebes y descargues. No podemos garantizar que, durante la lectura, podrás descargar todas las apps que se mencionan aquí, ya que algunas tienen restricciones específicas de cada país y dispositivo, mientras que otras aún estaban trabajando en sus detalles finales de implementación. Las apps que se presentan aquí son los proyectos de los desarrolladores de forma individual y no de Google.