Uit recent onderzoek van Gartner blijkt dat 34% van de organisaties al gebruik maakt van beveiligingstools gebaseerd op kunstmatige intelligentie (AI) om de risico’s van generatieve AI (GenAI) te minimaliseren. Meer dan de helft (56%) van de ondervraagden gaf aan bezig te zijn met het verkennen van soortgelijke oplossingen.
Het onderzoek van de Gartner Peer Community werd gehouden tussen 1 en 7 april en had 150 IT- en beveiligingshoofden als deelnemers. Deze leiders zijn afkomstig uit organisaties waar GenAI of basis modellen reeds worden gebruikt, gepland zijn voor gebruik, of worden overwogen.
Uit de enquête kwam naar voren dat 26% van de respondenten momenteel technologieën inzet die de privacy bevorderen (26%), ModelOps (25%) of modelmonitoring (24%).
Avivah Litan, Distinguished VP Analyst bij Gartner, benadrukt dat leiders in IT, beveiliging en risicobeheer naast het inzetten van beveiligingstools ook een brede AI TRiSM-strategie moeten overwegen. AI TRiSM focust op het managen van gegevens- en processtromen tussen gebruikers en bedrijven met GenAI-basismodellen. Deze inspanning moet continu zijn om een organisatie consistent te beschermen.
Hoewel 93% van de ondervraagde IT- en beveiligingshoofden aangaf betrokken te zijn bij de GenAI-beveiligingsinspanningen van hun organisatie, beschouwt slechts 24% zichzelf als primair verantwoordelijk. Uit de enquête bleek verder dat van degenen die zichzelf niet als verantwoordelijke zagen, 44% geloofde dat IT de uiteindelijke verantwoordelijkheid droeg, terwijl voor 20% de afdelingen voor governance, risico en compliance verantwoordelijk waren.
De potentiële risico’s van GenAI zijn aanzienlijk en zullen blijven veranderen. Uit de resultaten bleek dat ongewenste uitkomsten en onveilige code tot de voornaamste zorgen behoorden. Zo is 57% bezorgd over het lekken van geheimen in door AI gegenereerde code en 58% maakt zich zorgen over onjuiste of bevooroordeelde resultaten.
Litan waarschuwt: “Organisaties die de AI-risico’s niet onder controle houden, kunnen geconfronteerd worden met modellen die niet naar verwachting presteren of in het ergste scenario schade veroorzaken. De gevolgen variëren van veiligheidsissues tot financiële en reputatieschade, en zelfs schade aan individuen door incorrecte of bevooroordeelde resultaten. Onvoldoende AI-prestaties kunnen zelfs leiden tot slechte zakelijke besluitvorming.”