De AI-wedloop in cybersecurity: hoe cybercriminelen en bedrijven elkaar steeds te snel af proberen te zijn

maandag, 29 september 2025 (12:40) - Techzine

In dit artikel:

Kunstmatige intelligentie speelt momenteel een dubbele rol in digitale veiligheid: bedrijven en securityteams gebruiken AI om sneller bedreigingen te detecteren en incidenten te bevatten, terwijl cybercriminelen dezelfde technieken inzetten om efficiëntere en schaalbare aanvallen te voeren. Deze rivaliteit schetst een wereldwijde digitale wapenwedloop, waarin zowel verdedigers als aanvallers zoeken naar voorsprong met steeds geavanceerdere tools.

Een belangrijke ontwikkeling is de opkomst van agentic AI — systemen die niet alleen commando’s uitvoeren, maar zelfstandig context begrijpen, redeneren en beslissingen nemen. Voor de verdediging betekent dat snellere detectie en geautomatiseerde mitigatie; voor aanvallers opent het de deur naar volledige automatisering van aanvalsketens: van OSINT-verzameling en geautomatiseerde phishing tot realtime deepfake-gesprekken die slachtoffers overtuigen. Een concreet voorbeeld is een fraudezaak in Hongkong waarbij via een online vergadering ruim 200 miljoen Hongkongse dollar werd buitgemaakt door een deepfake van een leidinggevende.

Het dark web fungeert als marktplaats en gereedschapskist: open source- of defensief bedoelde tools zoals SpiderFoot en LLM-gestuurde vulnerability scanners worden gerecycled voor offensieve doeleinden. Nieuwere platforms, zogenaamde flow-builders, koppelen losse tools tot een naadloze aanvalsketen, waardoor ook minder ervaren criminelen complexe campagnes kunnen opzetten. Ondanks die mogelijkheden is brede AI-adoptie door daders nog niet universeel; veel groepen blijven voorlopig vertrouwen op traditionele methoden als phishing en zwakke wachtwoorden zolang die effectief zijn. Tegelijk laten groepen als Scattered Spider, die samenwerken met ransomware-collectieven als BlackCat, zien hoe snel professionele criminele netwerken AI kunnen integreren zodra de tools betrouwbaar zijn.

AI zelf wordt ook doelwit. Aanvallen zoals data poisoning (het manipuleren van trainingsdata), misdirection en evasion techniques kunnen modellen verkeerde of onbetrouwbare uitkomsten laten geven. Omdat AI steeds vaker wordt gebruikt voor veiligheidstoepassingen en zelfs medische beslissingen, vormen deze risico’s een serieuze bedreiging voor betrouwbaarheid en veiligheid. Governance — keuzes over welke data gebruikt worden, toezichtmechanismen en preventie van misbruik — is daarom cruciaal.

Vooral op verdedigende zijde levert AI al tastbare winst op: onderzoek van IBM wijst op gemiddeld negen procent lagere beveiligingskosten door snellere detectie en containment van incidenten. Cases zoals Google’s Big Speed-agent tonen dat zelfstandige systemen zero-days kunnen vinden, mitigatieplannen kunnen maken en patches kunnen verifiëren. Dat verandert de rol van securityprofessionals: routinetaken worden geautomatiseerd, terwijl mensen zich moeten richten op audit, beleid, ethiek en strategisch toezicht. Menselijke besluitvorming en verantwoordelijkheid blijven noodzakelijk om AI veilig en effectief in te zetten.

De hoofdvraag voor organisaties is hoeveel risico ze accepteren en hoe ze governance en toezicht inregelen. In de huidige situatie is afwachten geen optie: wie AI gecontroleerd en doordacht toepast, heeft het grootste voordeel — zowel in het voorkomen van aanvallen als in het minimaliseren van onbedoelde risico’s. Dit artikel is een ingezonden bijdrage van KnowBe4.