De Jheronimus Academy of Data Science (JADS) gaat samenwerken met Deloitte bij het opzetten van een onderzoekslaboratorium dat zich richt op het auditen van betrouwbare AI-softwaresystemen. Dit SAFEGUARD lab maakt deel uit van het ROBUST AI-programma en gaat zich bezighouden met het onderzoeken en ontwikkelen van nieuwe auditingtheorieën en -tools.
Het doel van dit project is om te controleren of AI-toepassingen voldoen aan eisen van eerlijkheid, uitlegbaarheid, transparantie, robuustheid, betrouwbaarheid, privacy, veiligheid en beveiliging. In eerste instantie zal het lab plaats bieden aan 5 PhD-kandidaten, met plannen om in de toekomst uit te breiden.
De oprichtingsbijeenkomst van het SAFEGUARD was eerder deze week. Wiel Moonen, partner en Audit & Assurance Risk Leader bij Deloitte Accountants B.V. zei: “De impact van AI op besluitvorming neemt sterk toe. Gezien de impact op de samenleving is het belangrijk dat AI transparant, controleerbaar en betrouwbaar is. Het SAFEGUARD lab is een spannende kans om nieuwe benaderingen van het auditen van AI-software te ontwikkelen. We kijken uit naar de samenwerking met JADS om het veld van datawetenschap te bevorderen en te helpen zorgen voor het verantwoordelijke en ethische gebruik van AI.”
Het SAFEGUARD Lab zal onderzoek doen op meerdere gebieden, zoals het beoordelen van vooringenomenheid in AI en het vinden van manieren om AI uitlegbaar en transparant te maken. Onderzoekers zullen ook tools ontwikkelen om verantwoording en betrouwbaarheid te waarborgen door middel van audits en prototypes. Tot slot zullen ze een experimentele toolchain creëren om AI-software te testen met machine-learning en continue testtechnieken als onderdeel van een DevOps-pipeline. Het werk van het Lab zal starten in de herfst van 2023.
“Deze samenwerking met Deloitte is een grote stap voorwaarts naar het vaststellen van betrouwbare AI-toepassingen,” zei Prof. Dr. Willem-Jan van den Heuvel, professor aan JADS. “We zijn enthousiast om samen te werken met Deloitte om nieuwe theorieën, tools en methodologieën te ontwikkelen die zullen helpen zorgen voor het eerlijke, uitlegbare en verantwoorde gebruik van de huidige en toekomstige AI-toepassingen zoals ChatGPT. Wat bijzonder is aan dit lab is dat het onderzoek is ontworpen om onderzoeksdisciplines te combineren die voorheen onwaarschijnlijk samenwerkten, variërend van theologie tot technologie.
Het SAFEGUARD lab maakt deel uit van het ROBUST AI-programma, een nieuw initiatief van het Innovation Center for Artificial Intelligence (ICAI), gesteund door de Universiteit van Amsterdam en 51 partners uit de overheid, de industrie en de kennissector. Het programma is bedoeld om het Nederlandse kunstmatige intelligentie (AI) ecosysteem te versterken door fundamenteel AI-onderzoek te stimuleren.