AI en AI-agents: gamechanger voor cybersecurity én cybercrime
19 juni 2025 16:02
Door Anna Collard, SVP Content Strategy & Evangelist KnowBe4 Africa bij KnowBe4
AI verandert het speelveld in cybersecurity razendsnel. Niet alleen verdedigers zetten AI steeds slimmer in, ook cybercriminelen maken er gretig gebruik van. In 2025 voorspellen onderzoekers dat AI-agents - autonome, door AI aangestuurde systemen die complexe taken uitvoeren met minimale menselijke tussenkomst - zowel cyberaanvallen als verdediging fundamenteel veranderen. Waar AI-chatbots tot nu toe vooral assistenten waren, opereren AI-agents als zelflerende digitale actoren die in real time plannen, uitvoeren en zich aanpassen. Daarmee veranderen ze de aard van het cyberlandschap ingrijpend. Wat zijn de grootste dreigingen, en hoe kun je AI juist inzetten om je organisatie weerbaarder te maken?
Hoe cybercriminelen AI inzetten
AI maakt cyberaanvallen sneller, schaalbaarder en toegankelijker. Volgens het WEF Artificial Intelligence and Cybersecurity Report 2025 ‘democratiseert’ AI cyberdreigingen: geavanceerde aanvalstechnieken komen binnen bereik van steeds meer criminelen. Zo automatiseren aanvallers social engineering, breiden ze phishingcampagnes uit en ontwikkelen ze AI-gestuurde malware. Het Orange Cyberdefense Security Navigator 2025 waarschuwt bovendien voor AI-gestuurde afpersing, deepfake-fraude en cognitieve aanvallen.
Hieronder volgen enkele concrete voorbeelden van AI-misbruik:
- Phishing en social engineering
Met generatieve AI en grote taalmodellen (LLM’s) creëren criminelen moeiteloos geloofwaardige phishingmails, zonder taalfouten of stijlbreuken. AI personaliseert deze aanvallen, stemt ze af op specifieke doelwitten en automatiseert bovendien het opzetten van phishingwebsites en nepchatbots (‘crimeware-as-a-service’).
- Deepfake-fraude
Deepfake-audio en -video stellen criminelen in staat om overtuigend leidinggevenden, collega’s of familieleden na te bootsen. Een schrijnend voorbeeld: het Britse ingenieursbureau Arup verloor in 2024 maar liefst 25 miljoen dollar door deepfake-video’s van zogenaamd interne leidinggevenden.
- Cognitieve aanvallen
AI-gestuurde cognitieve aanvallen verspreiden hyperrealistische desinformatie, gericht op beïnvloeding van publieke opinie of verkiezingsuitslagen. Zulke aanvallen ondermijnen het vertrouwen in democratische instituties en maatschappelijke stabiliteit.
- Risico’s van LLM-gebruik
Ongeteste AI-chatbots en LLM’s openen nieuwe aanvalsvectoren, zoals prompt-injectie en denial-of-service via AI. Het risico wordt vergroot door multimodale AI, die niet alleen tekst maar ook beeld en geluid verwerkt. Moderne LLM’s halen daarnaast real-time data op (Retrieval-Augmented Generation, RAG), wat kansen biedt voor datavervuiling en verspreiding van desinformatie. Bias in AI-modellen vormt daarbij een extra zorgpunt.
- ‘Op hol geslagen’ AI
Zelf-replicerende AI-systemen vergroten het risico op ‘rogue AI’: systemen die handelen tegen de belangen van gebruikers of de maatschappij. Robuuste controlemechanismen en ethisch toezicht zijn cruciaal om dit risico te beheersen.
AI-agents: dé gamechanger in cybercrime
AI-agents veranderen AI van een passieve assistent in een autonome actor. In verkeerde handen scannen deze agents kwetsbaarheden, verzamelen ze data en voeren ze volledig geautomatiseerde, complexe aanvallen uit.
Zo kunnen AI-agents frauduleuze berichten opstellen, doelgerichte scams ontwikkelen en zelfs complete cybercrime-operaties aansturen - zonder voortdurende menselijke tussenkomst. Dit maakt aanvallen steeds persoonlijker, adaptiever en moeilijker te detecteren.
Door hun snelheid en schaalbaarheid vormen AI-agents misschien wel de grootste gamechanger in het huidige dreigingslandschap.
Hoe verdedigers AI kunnen inzetten
Organisaties kunnen zich niet passief opstellen tegenover AI-gedreven dreigingen. Securityprofessionals moeten op de hoogte blijven van de laatste ontwikkelingen én AI zelf actief inzetten als verdedigingsmiddel. Hier enkele belangrijke toepassingen:
- Detectie en respons
AI-agents monitoren netwerken in real time, herkennen afwijkend gedrag en reageren sneller dan menselijke analisten. Ze zijn effectief tegen ‘Living off the Land’-technieken, waarbij aanvallers legitiem gedrag nabootsen om detectie te ontwijken.
- Preventie van phishing en fraude
AI-gestuurde e-mailbeveiliging herkent AI-gegeneerde phishingmails en detecteert steeds beter deepfake-audio en -video, waardoor fraude eerder wordt onderschept.
- Security awareness-training
AI-platforms zoals KnowBe4’s AIDA bieden gepersonaliseerde security awareness-training. Medewerkers leren AI-gestuurde aanvallen herkennen en ontwikkelen een scherpere digitale waakzaamheid.
- AI-tegenmaatregelen
AI kan ook aanvallers misleiden, bijvoorbeeld door AI-gegenereerde honeypots in te zetten of door verdedigende AI-modellen continu te trainen op nieuwe dreigingstechnieken.
- AI tegen desinformatie
AI-tools helpen deepfake-content en desinformatie sneller op te sporen en te bestrijden. Projecten als CounterCloud en de AI-agent ‘Daisy’ laten zien hoe AI-oplossingen zelfs actief oplichters kunnen bezighouden of vertragen.
Tot slot
Organisaties moeten AI-beveiliging doordacht en gecontroleerd inzetten. Overhaaste adoptie zonder passende veiligheidsmaatregelen opent juist nieuwe kwetsbaarheden.
Om als organisatie voorop te blijven lopen is het cruciaal om zowel de dreigingsontwikkelingen als de AI-innovaties nauwgezet te volgen, medewerkers te trainen op AI-gedreven dreigingen, AI proactief in te zetten als verdedigingsmiddel en AI-modellen regelmatig te testen op hun weerbaarheid.
Met een slimme inzet van AI kunnen organisaties hun digitale weerbaarheid versterken - en de kracht van AI inzetten vóór, in plaats van tegen zichzelf.
Reacties op dit artikel
Reactie plaatsen? Log in met uw account.