Volgens Gartner zal in 2027 meer dan 40% van de AI-gerelateerde datalekken voortkomen uit het onjuist gebruik van generatieve AI (GenAI) over landsgrenzen heen. De snelle adoptie van GenAI-technologieën door eindgebruikers heeft de ontwikkeling van data governance en beveiligingsmaatregelen ingehaald, wat zorgen oproept over gegevenslokalisatie vanwege de gecentraliseerde rekenkracht die nodig is om deze technologieën te ondersteunen.
“Onbedoelde grensoverschrijdende datatransfers komen vaak voor door een gebrek aan toezicht, met name wanneer GenAI wordt geïntegreerd in bestaande producten zonder duidelijke beschrijving of aankondiging,” zegt Joerg Fritsch, VP-analist bij Gartner. “Organisaties merken veranderingen op in de inhoud die werknemers produceren met behulp van GenAI-tools. Hoewel deze tools kunnen worden ingezet voor goedgekeurde zakelijke toepassingen, vormen ze een beveiligingsrisico als gevoelige prompts worden verzonden naar AI-tools en API’s die worden gehost op onbekende locaties.”
Tekort aan wereldwijde AI-standaarden
Het ontbreken van consistente wereldwijde best practices en standaarden op het gebied van AI en data governance vergroot de uitdagingen. Dit leidt tot marktfragmentatie en dwingt bedrijven om regio-specifieke strategieën te ontwikkelen, wat hun vermogen om wereldwijd op te schalen en te profiteren van AI-producten en -diensten beperkt.
“De complexiteit van datastromen en het waarborgen van kwaliteit door gelokaliseerde AI-beleidsmaatregelen kan operationele inefficiënties veroorzaken,” aldus Fritsch. “Organisaties moeten investeren in geavanceerde AI-governance en beveiliging om gevoelige gegevens te beschermen en naleving te garanderen. Dit zal waarschijnlijk leiden tot groei in de markten voor AI-beveiliging, governance en compliance, evenals technologieoplossingen die transparantie en controle over AI-processen verbeteren.”
AI-governance als wettelijke vereiste
Gartner voorspelt dat AI-governance tegen 2027 een vereiste zal zijn binnen alle nationale AI-wetgevingen en -regelgevingen wereldwijd. “Organisaties die er niet in slagen de vereiste governance-modellen en controles te integreren, kunnen een concurrentienadeel oplopen, vooral als ze niet over de middelen beschikken om hun bestaande data governance-frameworks snel uit te breiden,” aldus Fritsch.
Om de risico’s van AI-datalekken, met name door grensoverschrijdend misbruik van GenAI, te beperken en naleving te waarborgen, beveelt Gartner verschillende strategische acties aan:
- Versterk data governance: Zorg voor naleving van internationale regelgeving en monitor onbedoelde grensoverschrijdende datatransfers door data governance-frameworks uit te breiden met richtlijnen voor AI-verwerkte gegevens. Dit omvat het opnemen van data lineage en data transfer impact assessments binnen reguliere privacy impact assessments.
- Stel governancecommissies in: Richt commissies op om toezicht op AI te versterken en transparante communicatie over AI-implementaties en gegevensbeheer te waarborgen. Deze commissies moeten verantwoordelijk zijn voor technisch toezicht, risicobeheer, naleving en rapportage over besluitvorming.
- Versterk databescherming: Gebruik geavanceerde technologieën, versleuteling en anonimisering om gevoelige gegevens te beveiligen. Controleer bijvoorbeeld Trusted Execution Environments in specifieke geografische regio’s en pas geavanceerde anonimiseringstechnieken toe, zoals Differential Privacy, wanneer gegevens deze regio’s moeten verlaten.
- Investeer in TRiSM-producten: Reserveer budgetten voor trust-, risico- en beveiligingsbeheer (TRiSM) gericht op AI-technologieën. Dit omvat AI-governance, data security governance, promptfiltering en redactie, en de synthetische generatie van ongestructureerde gegevens. Gartner voorspelt dat bedrijven die tegen 2026 AI TRiSM-controles toepassen, ten minste 50% minder onjuiste of onbetrouwbare informatie zullen consumeren, wat zal bijdragen aan beter onderbouwde besluitvorming.