Future of Life pleitte vorige week in een open brief voor een moratorium op de ontwikkeling van geavanceerde AI-systemen. In die tijd moet nagedacht worden over het beteugelen van AI.
TNO heeft een reactie op de Open letter van Future of Life gepubliceerd. Daarin staat dat de risico-analyse van de briefopstellers terecht is, maar het middel van het moratorium is dat niet. Er is urgent extra actie nodig. En de benodigde kennis is niet alleen technologisch van aard, maar betreft ook sociale, economische, ethische en juridische kennis. De open brief roept op tot ‘robuuste’ financiering en daarmee intensivering en versnelling van AI-safety research. Maar zelfregulering van de industrie is zelden effectief. Dat vraagt om tegendruk van overheden en een maatschappelijk transparante dialoog tussen overheden en bedrijven, ondersteund door de juiste expertise, gebaseerd op wetenschappelijke inzichten.”
TNO ziet dat ook als existentiële noodzaak, voelt hier verantwoordelijkheid en ontwikkelt en deelt al geruime tijd kennis en concepten over verantwoordelijke AI. Dat wil zeggen met democratische controle, een goed systeem van toezicht, afdwingen van transparantie en afrekenbaarheid van technische systemen, ontwikkelen van mechanismen waarbij burgers zich kunnen beroepen op hun rechten, en het opzetten van testfaciliteiten om technologie te beproeven voordat deze wordt toegepast buiten het lab.
Het alarmsignaal van de Open letter moet heel serieus genomen worden. Big AI heeft een ongekend maar ook onbegrepen maatschappelijk potentieel. Regulering is urgent en kan niet worden overgelaten aan de markt zelf. De overheid is in staat om hier richting aan te geven en de noodzakelijke investeringen te doen, ondersteund door publieke kennisinstellingen.
Zie de hele reactie op website van TNO: ‘Giant AI goes down the European road’ | TNO