OpenAI brengt net als Anthropic cybersecuritymodel uit voor kleine groep klanten
In dit artikel:
OpenAI heeft recent GPT-5.4-Cyber aangekondigd, een versie van GPT-5.4 die specifiek is afgestemd op cybersecuritywerk. Het model is zodanig geoptimaliseerd dat het minder snel verzoeken rond beveiligingsonderzoek afwijst en geavanceerde taken aankan, zoals het analyseren van gecompileerde binaries om kwetsbaarheden te vinden zonder toegang tot broncode.
Toegang is voorlopig beperkt tot een geselecteerde groep: goedgekeurde cybersecurityleveranciers, organisaties en onderzoekers. Deze Cyber-variant bouwt voort op OpenAI’s bestaande Trusted Access for Cyber-programma, maar biedt nog minder beperkingen en dus meer mogelijkheden voor defensief onderzoek.
De introductie lijkt mede een reactie op Anthropic, dat vorige week Claude Mythos presenteerde — een model dat tijdens ontwikkeling onverwacht effectief bleek in het opsporen van beveiligingslekken en daarom eveneens niet breed werd vrijgegeven uit angst voor misbruik. Zowel OpenAI als Anthropic hanteren dus een beperkte uitrol om de balans te bewaren tussen het versterken van verdedigende capaciteiten en het voorkomen van kwaadwillend gebruik.