Cybercriminelen gebruiken AI steeds geavanceerder, stelt Google
In dit artikel:
De Google Threat Intelligence Group (GTIG) waarschuwt in een nieuw rapport dat AI steeds vaker door zowel cybercriminelen als staten wordt ingezet voor offensieve cyberoperaties. Waar taalmodellen eerst vooral taken versnelden, worden ze nu gebruikt om malware te schrijven, te verhullen en zelfs pas bij uitvoering samen te stellen (zogeheten just-in-time codegeneratie), waardoor detectiesystemen minder kans hebben op herkenning.
Aanvallers benutten grote taalmodellen (LLM’s) om code te herschrijven — bijvoorbeeld naar Visual Basic-script — en om dynamische commando’s te genereren voor het stelen van documenten. Ook leren kwaadwillenden hoe ze AI-beveiligingen kunnen omzeilen, onder meer door zich voor te doen als onderzoekers of hackwedstrijddeelnemers om zo veiligheidsfilters te omzeilen. Tegelijk ontstaat op forums een commerciële markt voor kant-en-klare AI-gestuurde tools voor phishing, social engineering en automatisering van aanvallen.
GTIG meldt dat verdedigers reageren door filters en detectiemechanismen te verbeteren; Google noemt ook DeepMind als partij die werkt aan verfijnde classificatiesystemen om afwijkend AI-gebruik sneller te signaleren. De ontwikkeling vergroot de urgentie van gecombineerde verdediging: betere modelbeveiliging, gedragsanalyse, en nauwere samenwerking tussen techbedrijven en opsporingsdiensten.