AI heeft diepgaande invloed op het cybersecuritylandschap in 2023, zegt Kaspersky in een nieuw rapport. De analyse verkent de implicaties van AI, waarbij de nadruk ligt op het gebruik door regelgevers en partijen die zich verdedigen tegen cybercriminelen. Afzonderlijk wordt gekeken naar de potentiële exploitatie van AI door cybercriminelen. Dit uitgebreide onderzoek – onderdeel van Kaspersky Security Bulletin (KSB) – is een jaarlijkse compilatie van voorspellingen en rapporten die belangrijke verschuivingen op het dynamische gebied van cybersecurity belichten.
Te midden van de snelle technologische vooruitgang en maatschappelijke verschuivingen heeft de term ’AI’ zich stevig gepositioneerd. Met de toenemende verspreiding van grote taalmodellen (LLM’s) is er door de toename van beveiligings- en privacyzorgen een direct verband tussen AI en cybersecurity. Het rapport laat zien hoe AI-tools cybercriminelen hebben geholpen bij hun kwaadaardige activiteiten in 2023, terwijl het ook de potentiële defensieve toepassingen van deze technologie laat zien. Daarnaast wordt ook een blik geworpen op het ontwikkelende landschap van AI-gerelateerde bedreigingen, die in de toekomst zouden kunnen bestaan uit:
Complexere kwetsbaarheden
Naarmate instructie-volgende LLM’s in meer consumentenproducten worden geïntegreerd, zullen er nieuwe complexe kwetsbaarheden ontstaan op het snijvlak van probabilistische generatieve AI en traditionele deterministische technologieën. Hierdoor zal het aanvalsoppervlak dat cybersecurityprofessionals moeten beveiligen groter worden. Ontwikkelaars zullen vervolges nieuwe beveiligingsmaatregelen moeten bestuderen, zoals goedkeuring van de gebruiker voor acties die worden geïnitieerd door LLM-agenten.
Een uitgebreide AI-assistent voor cybersecurityspecialisten
Red teamers en onderzoekers maken gebruik van generatieve AI voor innovatieve cybersecuritytools, wat mogelijk leidt tot een assistent die gebruikmaakt van LLM of machine learning (ML). Deze tool zou red teaming-taken kunnen automatiseren en begeleiding kunnen bieden op basis van uitgevoerde opdrachten in een pentesting-omgeving.
Neurale netwerken zullen steeds vaker worden gebruikt om visuals voor scams te genereren
In het komende jaar kunnen scammers hun tactieken uitbreiden door gebruik te maken van neurale netwerken en AI-tools om overtuigendere frauduleuze content te creëren. Doordat het mogelijk wordt om moeiteloos geloofwaardige afbeeldingen en video’s te genereren, vormen kwaadwillende actoren een verhoogd risico op escalatie van cyberbedreigingen met betrekking tot fraude en oplichting.
AI zal geen drijvende kracht worden voor baanbrekende veranderingen in het dreigingslandschap in 2024
Ondanks de bovenstaande trends blijven Kaspersky-experts sceptisch over het feit dat AI het dreigingslandschap op korte termijn ingrijpend zal veranderen. Terwijl cybercriminelen generatieve AI toepassen, geldt hetzelfde voor partijen die zich verdedigen tegen deze criminelen. Zij zullen dezelfde of zelfs geavanceerdere tools gebruiken om de beveiliging van software en netwerken te testen, waardoor het onwaarschijnlijk is dat het aanvalslandschap drastisch zal veranderen.
Meer AI-gerelateerde regelgevingsinitiatieven, met bijdrage van de private sector
Naarmate de snelgroeiende technologie zich verder ontwikkelt, is het ook een kwestie van beleid en regelgeving geworden. Het aantal AI-gerelateerde regelgevende initiatieven zal toenemen. Niet-overheidspartijen, zoals technologiebedrijven, kunnen gezien hun expertise in het ontwikkelen en gebruiken van kunstmatige intelligentie waardevolle inzichten leveren voor discussies over AI-regulering op zowel mondiale als nationale platformen.
Watermerk voor AI-gegenereerde inhoud
Er zal meer regelgeving en beleid van dienstverleners nodig zijn om synthetische content (content gemaakt op basis van AI) te markeren of te identificeren. Ontwikkelaars en onderzoekers zullen op hun beurt bijdragen aan methoden om synthetische media van een watermerk te voorzien, zodat ze gemakkelijker geïdentificeerd en bewezen kunnen worden.