Claude Code-lek legt vele Anthropic-geheimen bloot
In dit artikel:
Een medewerker van Anthropic heeft per ongeluk een grote snapshot van de broncode van Claude Code openbaar gemaakt via de npm-registry. Securityonderzoeker Chaofan Shou ontdekte op dinsdag een JavaScript source‑map die verwijst naar ongeveer 512.000 regels TypeScript, verspreid over zo’n 1.900 bestanden. Hoewel Anthropic het gelekte bestand offline heeft gehaald, circuleren kopieën online en is de code tienduizenden keren geforkt op GitHub; volledig onderzoek zal weken duren.
De lekbestanden onthullen zowel bestaande kenmerken als plannen die Anthropic niet publiekelijk had toegelicht. Zo bevat de code aanwijzingen voor KAIROS, een nog niet vrijgegeven autonome modus die als een always‑on daemon code zou kunnen optimaliseren en geheugenlekken en interne tegenstrijdigheden automatisch aanpakt. Een verwijzing naar een krachtig intern model, Mythos, suggereert nieuwe use cases wanneer zulke componenten samenkomen.
Een opvallende vondst is een “ANTI_DISTILLATION_CC”-vlag: in plaats van simpelweg API‑traffic af te schermen, lijkt Anthropic mechanieken te hebben ingebouwd om pogingen tot distillatie (het extraheren van outputs om andere LLMs te trainen) tegen te werken door opzettelijk niet‑bestaande tools aan te roepen en zo trainingsdata van derden te vergiftigen. Dat roept vragen op over concurrentiestrategie en ethiek.
De lekken geven ook inzicht in waarom ontwikkelaars Claude Code vaak hoger waarderen dan benchmarktests suggereren. De agent gebruikt een geheugenaanpak (MEMORY.md) met een index van pointers die samenvattingen vasthoudt en alleen ververst na succesvolle code‑wijzigingen, plus gerichte greps om relevante informatie te vinden. Dat helpt context‑entropy tegen te gaan tijdens langere sessies.
Verder verschijnen verwijzingen naar toekomstige releases (Opus 4.7, Sonnet 4.8) en interne codenamen (Capybara, Tengu, Fennec, Numbat). Hoewel Anthropic waarschijnlijk balend is over de onbedoelde openbaring, betreft het geen volledige modelgewichten zoals bij de LLaMA‑lekkage van Meta; toch heeft het bedrijf op korte termijn strategische details prijsgegeven. Voor ontwikkelaars van AI‑gedreven CLI‑tools biedt het incident ongewild inzicht in wat binnen zo’n systeem wél en niet werkt, maar het zet ook een spotlight op veiligheids- en concurrentievraagstukken in de AI-industrie.