Los científicos han logrado un gran avance en robótica al crear un robot humanoide capaz de mover su boca con una precisión casi humana. Este desarrollo aborda el desafío de larga data del “valle inquietante”: la sensación inquietante que los humanos experimentan cuando los robots parecen casi reales pero se quedan cortos. ¿La clave? Dejar que el robot aprenda de su propio reflejo y de horas de vídeos de YouTube.
Cómo el robot aprendió a imitar el habla humana
Investigadores de la Universidad de Columbia desarrollaron el robot, llamado EMO, utilizando un novedoso sistema de inteligencia artificial de “visión a acción”. Esto significa que EMO no depende de reglas preprogramadas; en cambio, aprende a traducir lo que ve en movimientos físicos coordinados. El proceso comenzó con EMO mirándose a sí mismo en un espejo. Esto permitió al robot comprender cómo sus 26 motores faciales, cada uno con hasta 10 grados de libertad, afectan sus labios flexibles de silicona.
A continuación, los científicos expusieron a EMO a miles de horas de habla humana procedente de vídeos de YouTube en 10 idiomas diferentes. El robot aprendió a conectar los movimientos motores con los sonidos correspondientes sin comprender el significado de las palabras. Este entrenamiento permitió a EMO sincronizar sus labios con el audio hablado a un nivel sin precedentes.
Probando la ilusión: estudios de percepción humana
Para validar los resultados, el equipo probó la precisión de la sincronización de labios de EMO con 1.300 voluntarios humanos. A los participantes se les mostraron videos de EMO hablando, comparando sus movimientos con el movimiento ideal de los labios, y otros dos métodos de control: enfoques basados en volumen y de imitación de puntos de referencia. Los resultados fueron sorprendentes: el 62,46% de los voluntarios eligieron los movimientos labiales generados por VLA de EMO como los más realistas, superando con creces a los demás métodos (23,15% y 14,38%, respectivamente).
“Gran parte de la robótica humanoide actual se centra en el movimiento de piernas y manos… Pero el afecto facial es igualmente importante para cualquier aplicación robótica que implique interacción humana”. – Hod Lipson, profesor de ingeniería en la Universidad de Columbia
Por qué las caras realistas son importantes para los robots
La importancia de esta investigación radica en cómo los humanos perciben a los robots. Los estudios muestran que nos centramos en las caras el 87% del tiempo durante las conversaciones, y entre el 10 y el 15% de esa atención se dirige a la boca. Estas señales no son sólo visuales; incluso impactan lo que oímos. Los robots que no logran imitar las expresiones faciales humanas probablemente sean vistos como inquietantes o poco confiables.
A medida que los robots impulsados por IA se integren más en la vida diaria, particularmente en campos como el cuidado de personas mayores, la educación y la medicina, las expresiones faciales realistas serán fundamentales para fomentar la confianza y la comunicación efectiva. Los investigadores creen que este avance allanará el camino para la creación de robots capaces de conectarse con los humanos en un nivel emocional más profundo.
La capacidad de los robots para imitar eficazmente las señales faciales humanas ya no es ciencia ficción; es una realidad que se acerca rápidamente. Este cambio plantea interrogantes sobre el futuro de la interacción entre humanos y robots, la ética de crear máquinas cada vez más realistas y cómo definimos la autenticidad en una era de IA avanzada.
