Creative Machines Lab van Columbia University heeft een robot die menselijke gezichtsuitdrukkingen na kan bootsen. Emo is een robothoofd met menselijke trekken, voorzien van 26 actuatoren die een breed scala aan gezichtsuitdrukkingen mogelijk maken. Het hoofd is bedekt met zachte siliconenhuid en bevat hoogresolutiecamera’s in de ogen om oogcontact te maken, een essentieel onderdeel van non-verbale communicatie.
Het ontwikkelingsteam trainde Emo met behulp van twee AI-modellen: het ene model voorspelt menselijke gezichtsuitdrukkingen door veranderingen in het doelgezicht te analyseren, terwijl het andere model motorcommando’s genereert voor de overeenkomstige gezichtsuitdrukkingen. Emo werd getraind door menselijke gezichtsuitdrukkingen in video’s te observeren en leerde zo de relatie tussen gezichtsuitdrukkingen en motorcommando’s. Dit proces, ‘zelfmodellering’ genoemd, is vergelijkbaar met hoe mensen gezichtsuitdrukkingen oefenen en herkennen.
Uit de studie blijkt dat Emo in staat is een menselijke glimlach te voorspellen en na te bootsen, 840 milliseconden voordat de persoon daadwerkelijk glimlacht. Deze capaciteit van Emo zou de kwaliteit van mens-robotinteractie verbeteren en het vertrouwen tussen mensen en robots kunnen opbouwen.
Toekomstige plannen omvatten het integreren van verbale communicatiecapaciteiten met behulp van grote taalmodellen zoals ChatGPT. Hod Lipson, professor aan Columbia Engineering en lid van het Data Science Institute, erkent de ethische overwegingen van dergelijke geavanceerde technologie in de robotica en benadrukt het belang van verantwoorde ontwikkeling en gebruik.
Foto: Yuhang Hu. Credit: Creative Machines Lab/Columbia Engineering