Les scientifiques ont réalisé une percée dans le domaine de la robotique en créant un robot humanoïde capable de bouger sa bouche avec une précision quasi humaine. Ce développement répond au défi de longue date de la « vallée étrange » – le sentiment troublant que les humains ressentent lorsque les robots semblent presque réels mais ne sont pas à la hauteur. La clé ? Laisser le robot apprendre de sa propre réflexion et des heures de vidéos YouTube.
Comment le robot a appris à imiter la parole humaine
Des chercheurs de l’Université de Columbia ont développé le robot, nommé EMO, en utilisant un nouveau système d’IA « vision-action ». Cela signifie qu’EMO ne s’appuie pas sur des règles préprogrammées ; au lieu de cela, il apprend à traduire ce qu’il voit en mouvements physiques coordonnés. Le processus a commencé avec EMO se regardant dans un miroir. Cela a permis au robot de comprendre comment ses 26 moteurs faciaux – chacun avec jusqu’à 10 degrés de liberté – affectent ses lèvres flexibles en silicone.
Ensuite, les scientifiques ont exposé EMO à des milliers d’heures de parole humaine provenant de vidéos YouTube dans 10 langues différentes. Le robot a appris à relier les mouvements moteurs aux sons correspondants sans comprendre le sens des mots. Cette formation a permis à EMO de synchroniser ses lèvres avec l’audio parlé à un niveau sans précédent.
Tester l’illusion : études sur la perception humaine
Pour valider les résultats, l’équipe a testé la précision de la synchronisation labiale d’EMO sur 1 300 volontaires humains. Les participants ont vu des vidéos d’EMO parlant, comparant ses mouvements au mouvement idéal des lèvres, ainsi que deux autres méthodes de contrôle : des approches basées sur le volume et imitant des points de repère. Les résultats ont été frappants : 62,46 % des volontaires ont choisi les mouvements des lèvres générés par VLA d’EMO comme les plus réalistes, dépassant de loin les autres méthodes (23,15 % et 14,38 %, respectivement).
« Aujourd’hui, une grande partie de la robotique humanoïde se concentre sur le mouvement des jambes et des mains… Mais l’affection du visage est tout aussi importante pour toute application robotique impliquant une interaction humaine. – Hod Lipson, professeur d’ingénierie à l’Université de Columbia
Pourquoi les visages réalistes sont importants pour les robots
L’importance de cette recherche réside dans la façon dont les humains perçoivent les robots. Des études montrent que nous nous concentrons sur les visages 87 % du temps pendant les conversations, avec 10 à 15 % de cette attention dirigée vers la bouche. Ces signaux ne sont pas seulement visuels ; ils ont même un impact sur ce que nous entendons. Les robots qui ne parviennent pas à imiter les expressions faciales humaines sont susceptibles d’être perçus comme troublants ou peu fiables.
À mesure que les robots basés sur l’IA s’intègrent de plus en plus dans la vie quotidienne, en particulier dans des domaines tels que les soins aux personnes âgées, l’éducation et la médecine, des expressions faciales réalistes deviendront essentielles pour favoriser la confiance et une communication efficace. Les chercheurs pensent que cette avancée ouvrira la voie à des robots capables de se connecter avec les humains à un niveau émotionnel plus profond.
La capacité des robots à imiter efficacement les signaux du visage humain n’est plus de la science-fiction ; c’est une réalité qui approche rapidement. Ce changement soulève des questions sur l’avenir de l’interaction homme-robot, sur l’éthique de la création de machines de plus en plus réalistes et sur la façon dont nous définissons l’authenticité à l’ère de l’IA avancée.

























