Generative AI staat op het punt de cybersecurity markt te revolutioneren en brengt zowel kansen als uitdagingen met zich mee, zeggen de analisten van Canalys. Terwijl het belooft om cybersecurity operaties te versterken en processen te stroomlijnen, roept het gebruik door kwaadwillende partijen zorgen op over gegevensprivacy, inbreuk op intellectueel eigendom en de opkomst van nieuwe dreigingsactoren.
De cybersecurity markt biedt in 2023 talloze kansen en uitdagingen, waarbij generative AI een centrale rol speelt. Volgens het recente rapport van Canalys getiteld ‘Nu en de toekomst voor het cybersecurity ecosysteem in 2023 – deel 2′ zijn op AI gebaseerde beveiligingsmaatregelen nu belangrijker dan ooit. Ondanks dit brengt de snelle adoptie van AI onzekerheden, kansen en controverses met zich mee.
Het rapport benadrukt een zorgwekkende trend waarbij kwaadwillende partijen generative AI inzetten om de impact van hun aanvallen te vergroten, wat leidt tot een toename van ransomware-aanvallen en phishingcampagnes. Generative AI kan worden getraind om kwetsbaarheden in code repositories en websites te identificeren, waardoor het aantal zero-day aanvallen toeneemt. Bovendien kan deze geavanceerde technologie kwaadaardige code genereren, gevoelige bestanden vinden binnen bedrijfsnetwerken en de focus van ransomware-aanvallen verleggen van gegevensversleuteling naar datadiefstal. Daarnaast verlaagt de mogelijkheid om malware te creëren en kwetsbaarheden te exploiteren de drempel voor nieuwe dreigingsactoren, zelfs voor degenen zonder uitgebreide programmeerkennis.
Desalniettemin belooft generative AI de cybersecurity te revolutioneren door bestaande operaties binnen organisaties te versterken. Security Operations Centers (SOC’s) zullen een paradigmaverschuiving ervaren doordat ze analisten trainen met digitale tweelingen en de automatisering van detectie- en responsprocessen en prioritering van meldingen verhogen. Voorspellende tools, geautomatiseerde threat intelligence, kwetsbaarheidsrapporten, software-inventarisbeheer en meer kunnen worden gestroomlijnd, waardoor het voortdurende tekort aan vaardigheden in de cybersecurity sector wordt verminderd. Volgens schattingen van Canalys zal binnen vijf jaar meer dan 70% van de bedrijven hun cybersecurity operaties ondersteunen met generative AI-tools.
Met de opkomst van AI lanceren technologieaanbieders innovatieve producten om de markt te veroveren. Microsoft loopt voorop met zijn Security Copilot, dat gebruikmaakt van ChatGPT-4. Dit is geen verrassing gezien de aanzienlijke investering van Microsoft in OpenAI sinds 2019. Andere aanbieders proberen snel bij te benen, met aanbiedingen zoals Airgap Networks’ ThreatGPT, Endor Labs’ DroidGPT, SentinelOne’s Purple AI en Tenable’s EscalateGPT.
Ondanks de geboden mogelijkheden roept het gebruik van generative AI ook legitieme zorgen op. Vertrouwenskwesties ontstaan door mogelijke onbetrouwbare reacties, valse positieven en negatieven en de moeilijkheid bij het interpreteren van de uitvoer. Bovendien bestaat het risico van gemakzucht en overmatige afhankelijkheid van technologie bij het detecteren van incidenten, terwijl de huidige waarborgen tegen kwaadwillend gebruik ontoereikend blijken te zijn. De grootste problemen liggen op het gebied van mogelijke schendingen van gegevensprivacywetten en inbreuk op intellectueel eigendom, gebieden die nog grondig moeten worden besproken door regelgevers.
Al met al zal generative AI de cybersecurity sector transformeren met enorme potentie, maar het brengt ook uitdagingen met zich mee wat betreft het gebruik, de beperkingen en de implicaties ervan. Het is een technologische wedloop en een klassiek verhaal van goed tegen kwaad, vergelijkbaar met het gebruik van de Force door de Jedi en de Sith in Star Wars. De uitkomst zal aanzienlijke invloed hebben op het cybersecurity ecosysteem in 2023 en daarna.