Naukowcy dokonali przełomu w robotyce, tworząc humanoidalnego robota, który potrafi poruszać ustami z niemal ludzką precyzją. To rozwiązanie rozwiązuje długotrwały problem „doliny niesamowitości” – nieprzyjemnego uczucia, jakiego doświadczają ludzie, gdy roboty wyglądają prawie jak prawdziwe, ale nie spełniają swoich oczekiwań. Klucz do sukcesu? Pozwól robotowi uczyć się na podstawie własnych refleksji i godzin filmów na YouTube.
Jak robot nauczył się naśladować ludzką mowę
Naukowcy z Uniwersytetu Columbia opracowali robota o nazwie EMO, który wykorzystuje nowy system sztucznej inteligencji przekształcający wizję w działanie. Oznacza to, że EMO nie opiera się na z góry zaprogramowanych zasadach; zamiast tego uczy się przekładać to, co widzi, na skoordynowane ruchy fizyczne. Proces rozpoczął się od spojrzenia EMO na siebie w lustrze. Pozwoliło to robotowi zrozumieć, w jaki sposób 26 silników twarzy – każdy z maksymalnie 10 stopniami swobody – wpływa na elastyczne silikonowe usta.
Następnie naukowcy wystawili EMO na działanie tysięcy godzin ludzkiej mowy z filmów na YouTube w 10 różnych językach. Robot nauczył się kojarzyć ruchy motoryczne z odpowiadającymi im dźwiękami, nie rozumiejąc znaczenia słów. To szkolenie umożliwiło EMO synchronizację ruchu warg ze ścieżką dźwiękową na niespotykanym dotychczas poziomie.
Testowanie iluzji: badania nad ludzką percepcją
Aby potwierdzić wyniki, zespół przetestował dokładność synchronizacji ruchu warg EMO na 1300 ochotnikach. Uczestnikom pokazano filmy przedstawiające mówienie EMO, porównujące jego ruchy z idealnymi ruchami warg, a także z dwiema innymi metodami kontroli: opartą na głośności i naśladującą punkty orientacyjne. Wyniki były imponujące: 62,46% ochotników wybrało ruchy warg EMO generowane przez VLA jako najbardziej realistyczne, znacznie przewyższające inne metody (odpowiednio 23,15% i 14,38%).
„Większość dzisiejszej robotyki humanoidalnej koncentruje się na ruchu nóg i ramion… Jednak wyraz twarzy jest równie ważny w każdym zastosowaniu robotycznym, które wymaga interakcji z człowiekiem.” —Hod Lipson, profesor inżynierii na Uniwersytecie Columbia.
Dlaczego realistyczne twarze są ważne dla robotów
Znaczenie tego badania polega na tym, jak ludzie postrzegają roboty. Badania pokazują, że podczas rozmów skupiamy się na twarzach przez 87% czasu, z czego 10-15% skupia się na ustach. Sygnały te są ważne nie tylko wizualnie; wpływają nawet na to, co słyszymy. Roboty, które nie imitują ludzkiej mimiki, mogą być postrzegane jako niepokojące lub niegodne zaufania.
W miarę jak roboty AI będą coraz bardziej włączane do życia codziennego, zwłaszcza w takich dziedzinach, jak opieka nad osobami starszymi, edukacja i medycyna, realistyczna mimika stanie się kluczowa dla budowania zaufania i skutecznej komunikacji. Naukowcy są przekonani, że ten przełom utoruje drogę robotom, które będą mogły nawiązywać głębsze więzi emocjonalne z ludźmi.
Zdolność robotów do skutecznego naśladowania sygnałów ludzkiej twarzy nie jest już fantastyką naukową; to szybko zbliżająca się rzeczywistość. Ta zmiana rodzi pytania o przyszłość interakcji człowiek-robot, etykę tworzenia coraz bardziej realistycznych maszyn oraz sposób, w jaki definiujemy autentyczność w dobie zaawansowanej sztucznej inteligencji.
