Kwaadaardige LLMs verlagen drempel voor cybercrime

woensdag, 26 november 2025 (13:55) - Techzine

In dit artikel:

Palo Alto Networks’ Unit 42 waarschuwt dat gespecialiseerde LLM-platformen cybercriminaliteit makkelijk en goedkoop maken. Uit hun onderzoek blijkt dat commerciële en open-source modellen aanvallers al uitgebreide ondersteuning bieden bij phishing, ransomware en social engineering — soms tegen abonnementskosten vanaf circa 50 dollar per maand. De snelle beschikbaarheid en het ontbreken van ethische beperkingen maken deze tools aantrekkelijk voor zowel ervaren kwaadwillenden als nieuwkomers.

WormGPT begon in juli 2023 als een vroeg malafide LLM en is uitgegroeid tot een commercieel platform met abonnementsopties (ongeveer $50/maand, $175/jaar of eenmalig $220). Het platform heeft honderden volgers op Telegram en levert foutloze, taalkundig overtuigende phishing-e-mails, kant-en-klare PowerShell-scripts voor ransomware (inclusief AES-256-encryptie en optionele exfiltratie via Tor) en andere direct bruikbare aanvalstools via een gebruiksvriendelijke interface. Belangrijker nog: WormGPT werkt zonder de gebruikelijke ethische guardrails.

KawaiiGPT, geïdentificeerd in juli 2025, verlaagt de drempel nog verder: gratis op GitHub te vinden en binnen enkele minuten op gang te krijgen op de meeste Linux-systemen. De tool produceert professionele spear-phishingberichten, Python-scripts voor laterale beweging via SSH en data-exfiltratie-hulpmiddelen, en heeft een groeiende gebruikersbasis en Telegram-community. Of het model echt custom-built is of een gejailbreakte variant van publieke modellen, is niet zeker, maar het gedraagt zich als een kant-en-klare toolkit voor aanvallers.

Unit 42 benadrukt dat dit een klassieke “dual-use”-situatie is: dezelfde AI-capaciteit die verdedigers helpt, kan misbruikt worden om operaties te schalen. Gevolg: traditionele detectiesignalen (slechte grammatica, slordige code) verliezen hun waarde; aanvallen worden sneller, geavanceerder en vereisen minder vakkennis.

Het rapport roept drie actoren tot verantwoordelijkheid: makers van foundation models moeten strengere alignment- en stresstests toepassen; overheden moeten audit- en reguleringskaders opzetten; en onderzoekers moeten internationaal samenwerken om de verdienmodellen van malafide LLM-diensten te verstoren. Conclusie: de dreiging is operationeel en organisaties die zich nu voorbereiden op AI-versterkte aanvallen, verkleinen hun risico aanzienlijk.