In haar langverwachte wetgevingsvoorstel voor AI heeft de Europese Commissie vandaag een duidelijke boodschap uitgedragen: grondrechten en Europese waarden vormen de kern van de Europese benadering van AI. Europa zegt in feite: als het om deze technologie gaat, is ‘alles kan’ niet langer de norm. We zullen niet langer alles toestaan, alleen maar omdat het kan. En we regelen niet alleen stukjes en beetjes van de technologie, we stellen EU-brede regels op die overal ter wereld zullen resoneren.
Een belangrijke mijlpaal
ALLAI verwelkomt het voorstel, aangezien Europa de eerste regio ter wereld is die een alomvattend wettelijk kader voorstelt voor verantwoorde ontwikkeling, inzet en gebruik van AI. Iets waar we vanaf het allereerste begin voor hebben gepleit. De meeste aanbevelingen die we de afgelopen jaren in onze verschillende rollen en in diverse adviescommissies hebben gedaan, zijn in dit wetsvoorstel terechtgekomen. Maar er is nog heel wat werk aan de winkel. Het voorstel is complex, bevat tal van ‘achterdeurtjes’, uitzonderingen en ‘loopholes’ en laat veel ruimte voor discussie en interpretatie. Niettemin is dit een belangrijke mijlpaal voor Europa.
Rode lijnen
ALLAI verwelkomt de moed van de Commissie om daadwerkelijk te streven naar het verbieden van bepaalde AI-praktijken. Schadelijke manipulatie, uitbuiting van kwetsbaarheden, willekeurige massa-surveillance voor rechtshandhaving en ‘social scoring’ worden allemaal genoemd als praktijken die in de EU niet thuishoren. “Er zijn echter nogal wat potentiële ‘mazen in de wet’ waarvan we ons zorgen maken dat ze kunnen worden uitgebuit en die verder moeten worden verfijnd.” zegt ALLAI voorzitter en medeoprichter Catelijne Muller.
Hoog risico AI
We verwelkomen ook de ‘vertaling’ van de meeste van de 7 vereisten van de Ethische Richtlijnen voor Betrouwbare AI naar specifieke vereisten voor ‘hoog-risico’ AI. Wat echter opvalt, is dat een van de belangrijkste vereisten, ‘inclusiviteit, non-discriminatie en billijkheid’, niet expliciet in het voorstel aan de orde komt. Als de Commissie hoopt dat datasets van hoge kwaliteit een oplossing bieden voor ‘bias’ of oneerlijke resultaten, ziet zij over het hoofd dat niet alle ‘bias’ het gevolg zijn van gegevens van lage kwaliteit.
“Het ontwerp van elk artefact is op zichzelf een opeenstapeling van keuzes, en keuzes zijn van nature vooringenomen, omdat ze de een selectie zijn van de ene optie boven. We moeten ons niet alleen richten op technische oplossingen op dataset niveau, maar in plaats daarvan socio-technische processen ontwikkelen die discriminerende of oneerlijke uitkomsten van AI helpen voorkomen. ”, Aldus Virginia Dignum, medeoprichter van ALLAI.
De regels voor biometrische identificatie baren zorgen
Het voorstel beoogt ‘realtime’ biometrische identificatie op afstand (met bijvoorbeeld gezichtsherkenning) voor rechtshandhaving te verbieden, en categoriseert het als ‘hoog risico’ wanneer het voor andere doeleinden wordt gebruikt. Het woord ‘identificatie’ in plaats van ‘herkenning’ baart hier zorgen. Veel biometrische herkenningstechnologieën zijn niet gericht op het identificeren van een persoon, maar eerder op het beoordelen van iemands gedrag of karakteristieken (bijv. door het evalueren van iemands gelaatstrekken, gezichtsuitdrukkingen, oogbewegingen, poort, temperatuur, hartslag enz.).
“Verrassend genoeg wordt dit type biometrische (of ‘affect’) herkenning op het op twee na laagste risiconiveau van de‘ risicopiramide ’geplaatst, waarbij alleen transparantie over het gebruik ervan vereist is, terwijl het zeer invasief en wetenschappelijk twijfelachtig is. ‘ zegt Catelijne Muller. “Het zou veel hoger in de piramide moeten zijn.”
Regelgeving bovenop regelgeving
ALLAI benadrukt dat deze verordening complementair is. Zelfs vóór dit voorstel was AI geen ‘volledig ongereguleerde technologie’. “Veel bestaande regels zijn al van toepassing op AI en de effecten ervan, net zoals ze van toepassing zijn op andere tools of praktijken. AI heeft nooit geopereerd in een wetteloze wereld.” zegt Catelijne Muller. “Deze verordening moet bovenop de bestaande wetgeving komen en kan deze op geen enkele manier vervangen.”
De definitie
Volgens Eurocommissaris Vestager kijkt de voorgestelde verordening niet alleen naar de technologie zelf, maar ook naar waarvoor en hoe deze wordt gebruikt. Desalniettemin voegt het een lijst toe van AI-technieken die de technologie moet bevatten om als AI te worden beschouwd en dus onder de verordening te vallen. We verwachten dat dit de komende maanden aanleiding zal zijn voor een brede discussie over wat we precies willen reguleren.
“AI-technologie is er in vele ‘smaken’, sommige controversiëler dan andere, waarvan sommige volledig transparant, deterministisch en verklaarbaar zijn, maar nog steeds invasief. Ik zou liever zien dat de verordening zich alleen richt op eigenschappen of mogelijke resultaten of effecten, dan op technieken.” zegt Virginia Dignum.
AI-innovatie bevorderen
Het voorstel legt duidelijke verbanden tussen regelgeving en innovatie, maar ziet deze nog altijd vaak als twee tegengestelde richtingen. We zouden graag zien dat regelgeving veel sterker wordt voorgesteld als springplank naar innovatie. Ook laten lessen uit het verleden zien dat goede regelgeving innovatie niet in de weg staat.
“Als we reguleren, bevinden we ons zelfs in een veel sterkere positie om innovatie te stimuleren.” zegt Virginia Dignum. “Inderdaad…”, zegt Catelijne Muller. “Onzekerheid belemmert innovatie en regelgeving zorgt voor zekerheid. Je weet wat je wel en niet mag en dat dat precies hetzelfde is als je concurrent. “
Link naar het wetgevingsvoorstel