Gli scienziati hanno compiuto un passo avanti nel campo della robotica, creando un robot umanoide in grado di muovere la bocca con una precisione quasi umana. Questo sviluppo affronta la sfida di lunga data della “valle misteriosa”: la sensazione inquietante che gli esseri umani provano quando i robot sembrano quasi reali ma non sono all’altezza. La chiave? Lasciare che il robot impari dal proprio riflesso e da ore di video di YouTube.
Come il robot ha imparato a imitare il linguaggio umano
I ricercatori della Columbia University hanno sviluppato il robot, denominato EMO, utilizzando un nuovo sistema di intelligenza artificiale “visione-azione”. Ciò significa che EMO non si basa su regole preprogrammate; invece, impara a tradurre ciò che vede in movimenti fisici coordinati. Il processo è iniziato con EMO che si guardava allo specchio. Ciò ha permesso al robot di capire come i suoi 26 motori facciali, ciascuno con un massimo di 10 gradi di libertà, influenzano le sue labbra flessibili in silicone.
Successivamente, gli scienziati hanno esposto gli EMO a migliaia di ore di parlato umano provenienti da video di YouTube in 10 lingue diverse. Il robot ha imparato a collegare i movimenti motori ai suoni corrispondenti senza comprendere il significato delle parole. Questa formazione ha consentito a EMO di sincronizzare le labbra con l’audio parlato a un livello senza precedenti.
Testare l’illusione: studi sulla percezione umana
Per convalidare i risultati, il team ha testato la precisione della sincronizzazione labiale di EMO su 1.300 volontari umani. Ai partecipanti sono stati mostrati video di EMO che parlava, confrontando i suoi movimenti con il movimento ideale delle labbra e altri due metodi di controllo: approcci basati sul volume e che imitavano i punti di riferimento. I risultati sono stati sorprendenti: il 62,46% dei volontari ha scelto i movimenti delle labbra generati dal VLA di EMO come i più realistici, superando di gran lunga gli altri metodi (rispettivamente 23,15% e 14,38%).
“Gran parte della robotica umanoide oggi si concentra sul movimento delle gambe e delle mani… Ma l’affetto facciale è altrettanto importante per qualsiasi applicazione robotica che coinvolga l’interazione umana.” – Hod Lipson, Professore di Ingegneria alla Columbia University
Perché i volti realistici sono importanti per i robot
Il significato di questa ricerca risiede nel modo in cui gli esseri umani percepiscono i robot. Gli studi dimostrano che ci concentriamo sui volti l’87% delle volte durante le conversazioni, con il 10-15% di tale attenzione rivolta alla bocca. Questi segnali non sono solo visivi; hanno un impatto anche su ciò che sentiamo. I robot che non riescono a imitare le espressioni facciali umane vengono probabilmente considerati inquietanti o inaffidabili.
Man mano che i robot basati sull’intelligenza artificiale diventano sempre più integrati nella vita quotidiana, in particolare in campi come l’assistenza agli anziani, l’istruzione e la medicina, le espressioni facciali realistiche diventeranno fondamentali per promuovere la fiducia e una comunicazione efficace. I ricercatori ritengono che questa svolta aprirà la strada a robot capaci di connettersi con gli esseri umani a un livello emotivo più profondo.
La capacità dei robot di imitare efficacemente i tratti facciali umani non è più fantascienza; è una realtà che si avvicina rapidamente. Questo cambiamento solleva interrogativi sul futuro dell’interazione uomo-robot, sull’etica della creazione di macchine sempre più realistiche e su come definiamo l’autenticità in un’era di intelligenza artificiale avanzata.

























