OpenAI meldt groeiend misbruik van AI door staten en criminelen

woensdag, 8 oktober 2025 (11:26) - Techzine

In dit artikel:

OpenAI meldt in een recent rapport dat het de afgelopen maanden meerdere internationale netwerken heeft ontmanteld die zijn AI-modellen inzetten voor cyberaanvallen, oplichting en politieke beïnvloeding. Onderzoekers zagen dat kwaadwillenden AI niet zozeer uitvinden om nieuwe aanvalsvormen te creëren, maar bestaande methodes versnellen: ChatGPT en vergelijkbare modellen worden gekoppeld aan traditionele aanvalsketens om phishing, malwareontwikkeling en desinformatie efficiënter te maken.

Specifiek werden Russische groepen betrapt bij het verfijnen van malwarecomponenten zoals remote-access trojans en credential stealers; Koreaanssprekende hackers werkten aan command‑and‑control-infrastructuren; en vermoedelijk China-gelieerde actoren gebruikten AI voor gerichte phishing tegen Taiwan, Amerikaanse universiteiten en politieke organisaties. OpenAI’s ingebouwde veiligheidsfilters blokkeerden in veel gevallen directe verzoeken tot kwaadaardige hulp.

Het rapport belicht ook een groeiende, georganiseerde scam-industrie in Zuidoost-Azië en Afrika — met name Cambodja, Myanmar en Nigeria — waar AI wordt gebruikt om overtuigende nepprofielen te maken, investeringsfraudes op te zetten en tekstkenmerken die AI-gebruik verraden te verdoezelen; in sommige regio’s heeft die industrie economische gevolgen. Tegelijk toont OpenAI-data dat modellen drie keer vaker worden ingezet om fraude te detecteren dan om die te faciliteren: miljoenen gebruikers gebruiken AI om verdachte berichten, voorstellen en sites te analyseren.

Beveiligingsexperts waarschuwen dat bedreigingsactoren meerdere AI-modellen combineren om op te schalen, wat samenwerking tussen technologiebedrijven, overheden en maatschappelijke organisaties vereist. Volgens OpenAI is misbruik van AI geen tijdelijk probleem maar een continu veranderende dreiging die blijvende waakzaamheid vraagt.