Kad vidimo robota koji se na neki način doima poput prave osobe, to može izazvati svojevrstan osjećaj nelagode. Taj je fenomen poznat kao takozvana "dolina nelagode" i predstavlja stalni izazov za inženjere robotike, osobito pri dizajniranju humanoidnih robota namijenjenih da izgledaju i govore poput nas. Znanstvenici s američkog Sveučilišta Columbia bave se tim problemom, fokusirajući se na sinkronizaciju pokreta usana i govora kako bi roboti izgledali prirodnije.
Cilj nam je riješiti ovaj problem, koji je u robotici zanemaren, rekao je za CNET Hod Lipson, profesor inženjerstva na Columbiji. Objasnio je da roboti često djeluju "neobično", jer njihove usne ne oponašaju ljudske pokrete tijekom razgovora.
Potrošačka robotika danas sve više ulazi u razdoblje pojačanog interesa. Na tehnološkom sajmu CES 2026, našao se niz robota namijenjenih interakciji s ljudima, od Boston Dynamicsovog Atlasa do kućanskih robota koji mogu slagati rublje. Čak se pojavio robot u obliku kornjače za istraživanje okoliša, što pokazuje da bi 2026. godina mogla biti važna godina za robote u svakodnevnoj upotrebi.
Među najatraktivnijima bili su humanoidni roboti s tijelom, sintetičkom kožom i ekspresivnim licima. Realbotix je predstavio robote prikladne za informacijske pultove ili emocionalnu podršku, dok je Lovense pokazao robota za odnose opremljenog umjetnom inteligencijom i koji "pamti" intimne razgovore.
No ne događa se sva robotika samo na CES-u. Nedavno smo imali priliku upoznati i prvu hrvatsku roboticu Tonku, koja je namjenjena upravo svakodnevnoj interakciji i za odgređena područja, poput primjerice turizma i edukacije.
I najmanja nesinkronizacija pokreta usana i govora može od zanimljivog humanoidnog robota stvoriti zastrašujući stroj, što pokazuje koliko je besprijekorna sinkronizacija usana važna za prihvaćanje od strane ljudskih korisnika.
Kako bi to riješili, tim s navedenog sveučilišta razvio je humanoidno lice nazvano Emo. Njegova silikonska koža, poduprta magnetskim konektorima, omogućuje precizne oblike usana za izgovaranje 24 suglasnika i 16 samoglasnika. Za sinkronizaciju pokreta usana s govorom koristili su takozvani "learning pipeline", proces koji prikuplja vizualne podatke o pokretima usana i koristi ih za treniranje AI modela.