Nieuw onderzoek heeft aangetoond dat robots mensen kunnen stimuleren om grotere risico’s te nemen in een gesimuleerd gokscenario, dan wanneer er niets was dat hun gedrag beïnvloedt. Het vergroten van ons begrip van de vraag of robots het nemen van risico’s kunnen beïnvloeden, zou duidelijke ethische, praktische en beleidsimplicaties kunnen hebben.
Dr. Yaniv Hanoch, universitair hoofddocent risicomanagement aan de Universiteit van Southampton die de studie leidde, zegt: “We weten dat groepsdruk kan leiden tot meer risicogedrag. Met de steeds toenemende schaal van interactie tussen mens en technologie, beide online en fysiek is het cruciaal dat we beter begrijpen of machines een vergelijkbare impact kunnen hebben. ”
Ballon
Bij dit nieuwe onderzoek, gepubliceerd in het tijdschrift Cyberpsychology, Behavior, and Social Networking, namen 180 studenten deel aan de Balloon Analogue Risk Task (BART), een computerassessment waarbij de deelnemers op de spatiebalk op een toetsenbord moeten drukken om een ballon op te blazen die wordt weergegeven op de scherm. Met elke druk op de spatiebalk wordt de ballon een beetje opgeblazen en wordt 1 cent toegevoegd aan de “tijdelijke geldbank” van de speler. De ballonnen kunnen willekeurig ontploffen, wat betekent dat de speler al het geld verliest dat ze voor die ballon hebben gewonnen en dat ze de optie hebben om te “verzilveren” voordat dit gebeurt en door te gaan naar de volgende ballon.
Een derde van de deelnemers deed de test alleen in een kamer (de controlegroep), een derde deed de test naast een robot die hen alleen de instructies gaf, maar de rest van de tijd stil was en de laatste, het experimentele groep, nam de test met de robot die instructies gaf en bemoedigende uitspraken deed zoals “waarom ben je gestopt met pompen?”
Risico
De resultaten toonden aan dat de groep die werd aangemoedigd door de robot meer risico’s nam door hun ballonnen significant vaker op te blazen dan die in de andere groepen. Ze verdienden ook in totaal meer geld. Er was geen significant verschil in het gedrag van de leerlingen die begeleid werden door de stille robot en die zonder robot.
Dr. Hanoch: “We zagen dat deelnemers in de controleconditie hun risicogedrag terugschroeven na een ballonexplosie, terwijl degenen in de experimentele conditie evenveel risico bleven nemen als voorheen. Dus ze kregen directe aanmoediging van een risicobevorderende robot. leek de directe ervaringen en instincten van de deelnemers te negeren. ”
Avatars
De onderzoeker is nu van mening dat verder onderzoek nodig is om te zien of soortgelijke resultaten zouden voortkomen uit menselijke interactie met andere kunstmatige intelligentie (AI) -systemen, zoals digitale assistenten of avatars op het scherm. Dr. Hanoch concludeerde: “Met de brede verspreiding van AI-technologie en zijn interacties met mensen, is dit een gebied dat dringend aandacht nodig heeft van de onderzoeksgemeenschap.”
“Aan de ene kant kunnen onze resultaten alarm slaan over het vooruitzicht dat robots schade veroorzaken door risicovol gedrag te vergroten. Aan de andere kant wijzen onze gegevens op de mogelijkheid om robots en AI te gebruiken in preventieve programma’s, zoals antirookcampagnes in scholen, en met moeilijk bereikbare bevolkingsgroepen, zoals verslaafden.”
Foto: Een SoftBank Robotics Pepper-robot werd gebruikt in het onderzoek. Pepper, 1,21 meter, is een middelgrote mensachtige robot die primair is ontworpen voor Human-Robot Interaction (HRI). Credits: Universiteit van Southampton