Rapport over AI-gedreven ransomware gaf misleidend beeld
In dit artikel:
MIT Sloan School of Management heeft een onderzoeksrapport van zijn website gehaald dat stelde dat ongeveer tachtig procent van de ransomware-aanvallen in 2024 gebruikmaakte van AI. Het werkdocument, gepubliceerd in april in samenwerking met cybersecuritybedrijf Safe Security, kreeg veel aandacht maar riep al snel stevige kritiek op van beveiligingsonderzoekers.
Specialisten hebben kritiek op zowel de onderbouwing als de methodologie: er zou onduidelijkheid bestaan over hoe vastgesteld is dat AI daadwerkelijk werd ingezet, en het rapport verwees volgens critici zelfs naar verouderde malwareprojecten die al lang niet meer actief zijn. Beveiligingsonderzoeker Kevin Beaumont was een van de prominentste tegenstanders en betitelde de bevindingen als feitelijk onjuist en meer marketing dan wetenschap. Ook Google’s automatische factcheck liet zien dat er geen bewijs is voor het genoemde aandeel.
MIT Sloan verwijderde het document en paste de bijbehorende blogpost aan met een neutralere titel die de bredere rol van AI bij cyberaanvallen en het belang van versterkte weerbaarheid benadrukt. Michael Siegel, directeur cybersecurity bij MIT Sloan en coauteur, zegt dat er gewerkt wordt aan een herziene versie; volgens hem was het doel om aandacht te vestigen op het toenemende gebruik van AI in cybercrime.
Critici wijzen daarnaast op mogelijke belangenverstrengeling: twee MIT-professoren zitten in het bestuur van Safe Security, dat het onderzoek mede financierde. De affaire illustreert volgens waarnemers zowel de noodzaak van striktere onderzoeksmethoden als de spanning tussen academische onafhankelijkheid en commerciële betrokkenheid in het snelgroeiende veld van AI en cybersecurity.