Steeds meer organisaties maken kunstmatige intelligentie (AI) en machine learning (ML) onderdeel van hun IT-beveiligingsstrategie. De Cyber Resilience Think Tank, een internationale denktank van toonaangevende securityexperts, doet nu een aantal aanbevelingen voor een effectieve en veilige inzet van deze technologieën.
Cybersecurity is een belangrijk toepassingsgebied van AI en ML. De technologie wordt bijvoorbeeld ingezet voor het detecteren van schadelijke e-mails en bestanden. Volgens onderzoek van Capgemini Research Institute maakte in 2019 al een vijfde van de organisaties wereldwijd gebruik van AI voor securitydoeleinden. Twee derde gaf aan dit in 2020 te willen doen.
De Cyber Resilience Think Tank is een initiatief van securityspecialist Mimecast. De denktank buigt zich meerdere keren per jaar over een actueel thema in de securitywereld. De inzichten van de experts worden gebundeld in een e-book. Dit keer lag de focus op toepassingen van AI en ML in cybersecurity. De Cyber Resilience Think Tank komt met een aantal concrete adviezen:
-
Integreer AI en automatisering in totale security
Veel bedrijven maken gebruik van cybersecuritytools waarin AI zit ingebouwd. Het is cruciaal dat deze oplossingen goed geïntegreerd zijn in de securityomgeving, zodat meldingen op de juiste manier worden geïnterpreteerd en opgevolgd. Diverse experts waarschuwen niet blind in actie te komen als de tool een aanvalspoging detecteert. Een te snelle respons terwijl er niks aan de hand is, kan immers de bedrijfsvoering verstoren. De denktank adviseert mede hierom een zorgvuldige vendorselectie met extra aandacht voor betrouwbaarheid.
-
Kies voor AI-technologie die complex menselijk gedrag doorgrondt
Een traditionele op regels gebaseerde beveiliging heeft moeite met het detecteren van geavanceerde, gerichte aanvallen. Het is praktisch onmogelijk om alle vereiste regels handmatig in te stellen. Automatisering met behulp van machine learning biedt uitkomst. De technologie helpt bij het verwerken van grote hoeveelheden data en neemt zo veel repetitief werk uit handen. De denktank benadrukt echter dat het lastig is om algoritmes te ontwikkelen die de nuances van menselijk gedrag ‘begrijpen’. Sommige vendoren zijn hierin verder dan andere.
-
Minimaliseer de risico’s voor de business
De denktank pleit ervoor het gebruik van AI mee te nemen in het risicomanagement. Een verkeerde beslissing van een AI-tool kan nadelige effecten hebben, zoals het tijdelijk niet beschikbaar zijn van systemen. Maar wellicht is dat risico acceptabel omdat de AI ook ransomware-aanvallen vroegtijdig detecteert en zo veel schade voorkomt. Naarmate de technologie volwassener wordt, zal de kans op fouten afnemen. Tot die tijd is de inzet van AI ook een risicoafweging: automatisering moet onder de streep wel zorgen voor efficiëntievoordelen.
-
Zoek naar de ROI van AI
Het gebruik van AI-tools kan de detectie van en respons op bedreigingen versnellen. Maar kijk bij het berekenen van de ROI ook naar het trainen van het machine learning-systeem. Een expert merkt op dat dit veel tijd en middelen in beslag neemt. Aan AI-tools van vendoren hangt vaak al een fors prijskaartje. Dat kan een reden zijn om te kiezen voor een leverancier die zijn AI-technologie zelf traint. De denktank adviseert om de vendor kritisch te benaderen. Kan de tool getest worden? Hoeveel moeite moet de klant doen voordat alles werkt?
-
Houd rekening met de privacyaspecten
AI-tools verzamelen en verwerken data die mogelijk privacygevoelig is. Moderne privacywetgeving bevat al ruime definities die ook van toepassing zijn op nieuwe vormen van dataverzameling. Sommige experts verwachten zelfs dat er een privacyrevolutie aan zit te komen. Bedrijven die hier nu al op anticiperen door verder te kijken dan de huidige regels, profiteren daar uiteindelijk van. Ook zit er vaak ‘bias’ in de input, het verwerkingsproces en de output. Dat kan ongewenste effecten hebben waar organisaties alert op dienen te zijn.