Mythos helpt Mozilla, maar ook een indringer
In dit artikel:
Firefox (Mozilla) ontdekte recent dankzij toegang tot het AI‑model Claude Mythos Preview tientallen eerder onbekende kwetsbaarheden, wat leidde tot 271 fixes. Mozilla spreekt van een gevoel van “hoogtevrees”: een krachtig model dat beveiligingsproblemen kan opsporen helpt verdedigers, maar kan net zo goed in verkeerde handen grote schade aanrichten.
Bloomberg meldde dat een privéforum via een niet nader genoemde externe leverancier mogelijk ongeautoriseerde, langdurige toegang had tot Mythos Preview. Anthropic, de maker van Claude, onderzoekt die claim maar heeft tot nu toe geen bevestigend bewijs geleverd. Bloomberg toonde wel materiaal dat suggereert dat het forum via een gerichte zoekactie de online locatie van het model vond en daardoor kon experimenteren met nieuwe modellen.
Het incident zet vraagtekens bij Project Glasswing — Anthropic’s initiatief om AI te gebruiken voor kwetsbaarheidsonderzoek vóór kwaadwillenden dat doen. Als onbevoegden echt toegang hebben gehad, kan een geavanceerd LLM zoals Mythos zeer snel een gedetailleerd dreigingsbeeld voor organisaties genereren. Zelfs geautoriseerde externe partijen of kwaadwillende insiders vormen een risico; automatische scans kunnen resultaten bovendien grootschalig exploiteren.
Hoewel delen van het verhaal nog speculatief zijn, is de kernzorg duidelijk: zodra een LLM een bepaald vermogen bereikt, zijn technische of beleidsmatige grenslijnen moeilijk waterdicht te houden. Organisaties zonder toegang tot zulke modellen hebben weinig tijd om zich te wapenen tegen een uiteindelijke, openbare release — en als Anthropic Mythos niet verder vrijgeeft, zal iemand anders vergelijkbare mogelijkheden ontwikkelen.
Korte context: AI-modellen worden steeds vaker ingezet voor offensief en defensief kwetsbaarheidsonderzoek. Dit incident illustreert de noodzaak van strikte toegangscontroles, transparantie over gebruik, en samenwerking tussen leveranciers, onderzoekers en bedrijven om misbruik te beperken.