GPT-5.4-Cyber moet AI steviger verankeren in cybersecurity
In dit artikel:
OpenAI heeft GPT-5.4-Cyber gepresenteerd, een variant van zijn taalmodellen die specifiek is afgestemd op defensieve cybersecuritytoepassingen. De release maakt deel uit van het Trusted Access for Cyber-programma en geeft geverifieerde beveiligingsprofessionals toegang tot meer permissieve en gespecialiseerde AI-functionaliteiten dan standaardmodellen bieden. De aanleiding is dat zowel verdedigers als aanvallers AI inzetten, waardoor verdedigers krachtige hulpmiddelen nodig hebben zonder onnodige blokkades.
Het model verlaagt bewust sommige veiligheidsbeperkingen voor vertrouwde gebruikers, zodat onderzoekers eenvoudiger kwetsbaarheden kunnen analyseren of malware kunnen onderzoeken, ook zonder volledige broncode. Tegelijkertijd erkent OpenAI de risico’s van zo’n aanpak en koppelt toegang aan identiteitsverificatie en aanvullende betrouwbaarheidssignalen om misbruik tegen te gaan. In plaats van handmatige goedkeuring wil het bedrijf objectieve bevestiging en gebruikssignalen als basis voor toegang.
GPT-5.4-Cyber bouwt voort op eerdere inspanningen zoals Codex Security, dat automatisch kwetsbaarheden opspoort en oplossingen voorstelt; volgens cijfers heeft dat systeem al geholpen bij het oplossen van duizenden kritieke en ernstige lekken. OpenAI zet daarnaast open-sourcescans in die gratis meer dan duizend projecten bereiken, waarmee het defensieve bereik wordt vergroot.
De uitrol is gefaseerd maar groter dan eerdere pilots: duizenden individuele beveiligingsspecialisten en honderden teams komen in aanmerking, met verschillende toegangsniveaus waarbij de meest permissieve variant beperkt blijft tot een kleinste categorie. OpenAI geeft aan dat de ontwikkeling ook vooruitkijkt naar nog krachtigere modellen later dit jaar, en dat extra veiligheidsmaatregelen daarom noodzakelijk blijven.
Concurrenten bewegen eveneens richting AI-ondersteunde security; Anthropic bracht recent een model met vergelijkbare capaciteiten uit voor een beperkte groep organisaties. OpenAI kiest voor een bredere, gecontroleerde beschikbaarheid, waarmee het een balans zoekt tussen het versterken van verdedigers en het beperken van mogelijke misbruikrisico’s.