“Aangezien de ontwikkeling van AI bijna elk aspect van ons leven beïnvloedt en de invloed ervan in de nabije toekomst verder zal toenemen, moeten de lidstaten concrete stappen ondernemen om ervoor te zorgen dat de mensenrechten van mensen worden gewaarborgd bij het ontwerp, de ontwikkeling en de inzet van AI-systemen”, zegt de Europees commissaris voor mensenrechten Dunja Mijatović in een gisteren gepresenteerd rapport.
In haar aanbevelingen getiteld “Human rights by design – future-proofing human rights protection in the era of AI”, bespreekt de commissaris de belangrijkste uitdagingen waarmee de lidstaten worden geconfronteerd bij het beschermen en bevorderen van de mensenrechten bij het gebruik van AI in het licht van haar eerste praktische richtlijnen uitgegeven in 2019. De lidstaten moeten bijvoorbeeld de mensenrechtenrisico’s en -effecten van AI-systemen beoordelen voordat ze worden gebruikt, de transparantiegaranties versterken en zorgen voor onafhankelijk toezicht en toegang tot effectieve rechtsmiddelen. “De algemene aanpak is niet consistent geweest. Op mensenrechten gerichte regulering van AI-systemen ontbreekt nog steeds”, zegt ze.
De commissaris merkt op dat het voortdurende verhaal dat AI zo technisch en mysterieus is dat het aan menselijke controle en effectieve regulering ontsnapt, een misvatting is. Deze mythe heeft geleid tot een opmerkelijke onwil op hoger beleidsniveau om uitgebreid in te gaan op de potentiële mensenrechtenschendingen veroorzaakt door AI en belemmert de effectieve handhaving van bestaande wettelijke normen en het creëren van adequate mechanismen om bedreigingen te verminderen.
Volgens haar bevindingen, en in overleg met nationale mensenrechtenstructuren, wijst de commissaris op drie onderling afhankelijke trends die de volledige implementatie van internationale mensenrechtennormen met betrekking tot AI in Europa in de weg staan.
Ten eerste het gebrek aan alomvattende en op mensenrechten gebaseerde benaderingen. Lidstaten hebben te vaak sectorspecifieke benaderingen gekozen voor de implementatie van mensenrechtennormen en zich alleen gericht op subgroepen van rechten, zoals privacyrechten, in plaats van ervoor te zorgen dat bestaande garanties consistent worden toegepast op alle relevante sectoren die AI gebruiken. Juridische kaders, waar ze bestaan, worden vaak niet effectief en snel gehandhaafd, aangezien de afhankelijkheid van de infrastructuur van grote platforms de implementatie kan belemmeren en het toezicht gefragmenteerd blijft.
Ten tweede onvoldoende transparantie en informatiedeling. Duidelijke en actuele informatie over AI en de potentiële impact ervan op de mensenrechten blijft schaars in heel Europa. Bescherming van intellectuele eigendom vormt een belemmering voor de handhaving van informatierechten – ook voor de rechterlijke macht, nationale mensenrechtenstructuren en regelgevende instanties – en belemmert onafhankelijk toezicht.
Ten derde het gebrek aan initiatief van lidstaten om AI in te zetten om de mensenrechten te versterken. Aangezien de meeste AI-ontwikkelingen worden aangestuurd door de particuliere sector, hebben de overheidsinstanties over het algemeen een reactieve in plaats van een proactieve aanpak gekozen. “Door regelgeving uit te stellen die tot alternatieve innovatie zou leiden, lopen de lidstaten het risico de kansen te missen die AI-capaciteiten bieden voor de implementatie en versterking van de bescherming van de mensenrechten en de fundamentele beginselen van democratie en de rechtsstaat”, waarschuwt de commissaris.
In haar aanbevelingen onderstreept de commissaris de sleutelrol die nationale mensenrechtenstructuren spelen om ervoor te zorgen dat lidstaten de mensenrechten beschermen bij het ontwerpen, ontwikkelen en inzetten van AI-systemen. Ze richt zich ook op de noodzaak om het toezicht en toezicht door onafhankelijke instellingen te versterken, om de transparantie rond AI-systemen en het publieke bewustzijn over hun impact op de mensenrechten te bevorderen, en om proactief het potentieel van AI te onderzoeken om de bescherming van mensenrechten te stimuleren in plaats van te schaden. “Er is nog steeds een onbenut potentieel voor AI-ontwerp, -ontwikkeling en -implementatie, gestimuleerd door op waarden gebaseerde doelstellingen, zoals het blootleggen en ontmantelen van bestaande vooroordelen en discriminatie, het stimuleren van publieke participatie, het versterken van de stemmen van degenen die gewoonlijk niet worden gehoord, en het aanpakken van ongelijkheden door prioriteit te geven aan die meest behoeftig”, benadrukt ze.