Een smekend geluidje uit blikkerige speakers, treurige virtuele ogen, trillende robotarmen: er is weinig voor nodig om medelijden te hebben met een robot. Dat blijkt uit onderzoek van Marieke Wieringa, die gisteren promoveerde aan de Radboud Universiteit. Zij waarschuwt dat die menselijke compassie ook uitgebuit kan worden: wacht maar tot bedrijven een verdienmodel vinden in emotionele manipulatie door robots.
Objectief weten we het best: een robot kan geen pijn ervaren. Toch zijn mensen onder bepaalde omstandigheden toch net wat meer geneigd te geloven dat een robot pijn heeft, als ze maar op de juiste manier gemanipuleerd worden. ‘Als een robot kan doen alsof het emotioneel leed ervaart, voelen mensen zich schuldiger wanneer ze de robot mishandelen’, legt Wieringa uit.
Saaie taak, of schudden
Tijdens verschillende tests keken Wieringa en collega’s hoe mensen reageren op geweld tegen robots. ‘Sommige deelnemers kregen video’s te zien van robots die wel of niet mishandeld werden, soms vroegen we deelnemers zelf de robot flink te schudden. We hebben allerlei variaties geprobeerd: soms reageerde de robot niet, soms wel – met zielige geluidjes en andere uitdrukkingen die we associëren met pijn.’ Uit die tests bleek al snel dat de getergde robot medelijden opwekte: deelnemers waren minder bereid om de robot een tweede keer te schudden. ‘Vroegen we mensen om de robot te schudden die geen emotie toonde, dan leken ze er juist helemaal geen moeite mee te hebben.’
In een van de tests werd deelnemers gevraagd te kiezen: een tergend saaie taak uitvoeren, of de robot schudden. Een keuze voor langer schudden, betekende dat deelnemers de taak minder lang hoefden uit te voeren. ‘Bij een stille robot hadden de meeste mensen geen moeite met schudden, maar zodra de robot zielige geluiden maakte, besloten mensen toch maar de saaie taak op te pakken.’
Tamagotchi
Wieringa waarschuwt dat het een kwestie van tijd is voor organisaties die emotionele manipulatie uitbuiten. ‘De Tamagotchi was een tijdje een obsessie voor veel mensen: een virtueel huisdier dat succesvol emoties opriep. Maar wat als een bedrijf straks met een nieuwe variant op de Tamagotchi komt, waarbij je moet betalen om je virtuele huisdier te voeren? Daarom pleit ik voor richtlijnen vanuit de overheid die voorschrijven wanneer het geschikt is om emoties te tonen voor chatbots, robots en andere varianten.’
Helemaal verbieden lijkt Wieringa namelijk geen goed idee. ‘Het heeft ook zeker voordelen. Denk aan robots die in therapeutische situaties gebruikt worden, die mensen helpen om bepaalde dingen te verwerken. En ook tijdens het onderzoek zagen we dat de meeste deelnemers het juist goed vonden als de robot meelij opwekte: dat geeft volgens hen een signaal af dat gewelddadig gedrag niet oké is. Toch moeten we waken voor de risico’s bij mensen die gevoelig zijn voor ‘neppe’ emoties. We denken graag dat we heel logische, rationele wezens zijn die nergens intrappen, maar uiteindelijk worden wij ook geleid door emoties. En dat is maar goed ook, anders zijn wij net robots.’