Google: AI hielp vermoedelijk bij ontwikkeling zero-day voor aanval

dinsdag, 12 mei 2026 (09:40) - Techzine

In dit artikel:

Google Threat Intelligence Group meldt dat het vermoedelijk een cyberaanval heeft verijdeld waarbij aanvallers generatieve AI gebruikten om een zero-day exploit te ontwikkelen. Het betrof een kwetsbaarheid in een veelgebruikte open-source webtool voor systeembeheer die, mits aanvallers al over geldige inloggegevens beschikten, tweefactorauthenticatie kon omzeilen. Google zegt samen met de leverancier te hebben ingegrepen voordat de fout actief misbruikt werd; een specifieke dadergroep noemt het bedrijf niet en er zijn geen aanwijzingen gevonden dat Gemini is ingezet.

Volgens het rapport verschuift AI van een ondersteunend instrument naar een actief onderdeel van offensieve campagnes. Aanvallers zouden AI gebruiken voor kwetsbaarheidsonderzoek en exploitontwikkeling — onder meer door modellen te laten optreden als securityonderzoeker of firmware-expert en door historische kwetsbaarheidendatasets te gebruiken zodat modellen beter kunnen redeneren over softwarefouten. Ook zetten criminelen zogenoemde agentic tools in: systemen die zelfstandig delen van onderzoek en validatie automatiseren.

Malware wordt volgens Google bovendien steeds autonomer en slimmer. Voorbeelden uit het rapport tonen hoe AI wordt gebruikt voor obfuscatie (zoals het genereren van nutteloze extra code) en het dynamisch aanpassen van payloads om detectie te ontwijken. Een concreet geval is PROMPTSPY, een Android-backdoor die Gemini-achtige functionaliteit gebruikt om de gebruikersinterface uit te lezen, gegevens naar een model te sturen en instructies terug te krijgen om bijvoorbeeld op specifieke schermdelen te klikken of te swipen.

Naast direct misbruik van modellen zijn AI-ecosystemen zelf vaker doelwit: libraries, plugins en API-connectors worden aangevallen via supply-chain-aanvallen om cloudcredentials, GitHub-tokens en andere gevoelige gegevens te bemachtigen. Google noemt projecten als LiteLLM en BerriAI als voorbeelden van dergelijke pogingen. Dergelijke compromissen kunnen leiden tot ransomware, datadiefstal of misbruik van interne AI-systemen.

De publicatie verschijnt te midden van bredere zorgen in de sector over krachtige securitymodellen — zo stelde Anthropic de uitrol van zijn Mythos-model tijdelijk uit. Google wijst er ook op dat AI defensief kan helpen, met initiatieven zoals Big Sleep (DeepMind/Project Zero) voor het opsporen van onbekende kwetsbaarheden en CodeMender, een experimenteel hulpmiddel voor het automatisch repareren van kwetsbaarheden. Conclusie: AI vergroot zowel de aanvalscapaciteit als de aanvalsoppervlakte, waardoor betere beveiliging van AI-ecosystemen en snellere coördinatie tussen leveranciers cruciaal zijn.