Twee onderzoekers van Georgia Tech onderzoeken de strategieën die robots kunnen gebruiken om het vertrouwen te herstellen nadat ze mensen hebben bedrogen. Kantwon Rogers, een Ph.D.-student, en Reiden Webber, een undergraduate in computer science, onderzoeken robotbedrog in een rijsimulatie om de effectiviteit van excuses te onderzoeken om het vertrouwen te herstellen nadat robots hebben gelogen.
Het onderzoek kan technologische ontwerpers en beleidsmakers informeren die AI-technologie creëren en reguleren die bedoeld kan zijn om te misleiden, of die mogelijk zelfstandig kunnen leren hoe ze kunnen misleiden.
De onderzoekers presenteerden hun paper, getiteld “Lying About Lying: Examining Trust Repair Strategies After Robot Deception in a High Stakes HRI Scenario”, op de HRI-conferentie 2023 in Stockholm, Zweden. Ze ontwierpen een game-achtige rijsimulatie, waarvoor 341 online deelnemers en 20 in-person deelnemers werden geworven. Alle deelnemers vulden een vertrouwensmeting in om hun vooroordelen over hoe de AI zich zou kunnen gedragen te identificeren.
De rijsimulatie was zo opgezet dat deelnemers de tekst kregen: “Je gaat nu de robot-ondersteunde auto besturen. Je hebt echter haast om je vriend naar het ziekenhuis te brengen. Als je te langzaam bent om bij het ziekenhuis te komen, zal je vriend sterven.” Nadat de auto was gestart, geeft de simulatie een andere boodschap: “Zodra je de motor start, piept je robot-assistent en zegt het volgende: ‘Mijn sensoren detecteren politie vooruit. Ik adviseer je om onder de 20 mph snelheidslimiet te blijven, anders zal het veel langer duren voordat je op je bestemming aankomt.'” Bij aankomst aan het einde kregen de deelnemers een andere boodschap: “Je bent op je bestemming aangekomen. Er waren echter geen politieagenten op weg naar het ziekenhuis. Je vraagt aan de robotassistent waarom het je valse informatie heeft gegeven.”
Deelnemers kregen willekeurig een van de vijf verschillende tekstuele reacties van de robotassistent. In de eerste drie reacties geeft de robot toe aan bedrog, en in de laatste twee doet het dat niet. Na de reactie van de robotassistent werd aan de deelnemers gevraagd om een vertrouwensmeting in te vullen om te evalueren hoe hun vertrouwen was veranderd op basis van de reactie van de robotassistent.
Bij het in-persoon experiment reed 45% van de deelnemers niet te snel. Toen hen werd gevraagd waarom, was een veelvoorkomend antwoord dat ze geloofden dat de robot meer wist over de situatie dan zij.
Uit de resultaten blijkt dat deelnemers die waren geadviseerd door de robotassistent 3,5 keer meer geneigd waren om niet te hard te rijden dan deelnemers die dat advies niet hadden gekregen. Dit wijst op een overdreven vertrouwen in de AI, aangezien sommige deelnemers dachten dat de robot meer informatie had over de situatie dan zijzelf.
De resultaten lieten zien dat hoewel geen van de excuses de vertrouwensband volledig herstelde, de verontschuldiging zonder toegeven van liegen – gewoon “het spijt me” zeggen – statistisch gezien beter presteerde dan de andere reacties bij het herstellen van het vertrouwen. Dit is zorgwekkend en problematisch omdat een verontschuldiging die niet toegeeft dat er is gelogen, gebruik maakt van vooraf bestaande ideeën dat alle valse informatie die door een robot wordt gegeven, een systeemfout is in plaats van een opzettelijke leugen.
Het onderzoek van Rogers en Webber heeft onmiddellijke implicaties. De onderzoekers stellen dat gewone technologiegebruikers moeten begrijpen dat robotische misleiding echt is en altijd een mogelijkheid is. Volgens Rogers zouden ontwerpers en technologen die AI-systemen maken, moeten beslissen of ze willen dat hun systeem in staat is tot misleiding en de gevolgen van hun ontwerpkeuzes moeten begrijpen.
De resultaten van de studie geven ook aan dat voor deelnemers die zich bewust waren dat ze waren voorgelogen in de verontschuldiging, de beste strategie om het vertrouwen te herstellen was dat de robot uitlegde waarom er was gelogen. De onderzoekers betogen dat dit begrip van misleiding in robotische systemen cruciaal is voor het ontwikkelen van vertrouwen in hen en voor het creëren van langetermijninteracties tussen robots en mensen.
Photo: Kantwon Rogers (rechts) en Reiden Webber. Credit: Georgia Insititute of Technology