Anthropic schrapt AI-veiligheidsbelofte uit bedrijfsbeleid

woensdag, 25 februari 2026 (16:00) - Tweakers

In dit artikel:

Anthropic heeft recent de belangrijkste veiligheidsbelofte uit zijn Responsible Scaling Policy geschrapt: de eerder in 2023 gemaakte toezegging om geen AI-systemen te trainen tenzij de bedrijfseigen veiligheidsmaatregelen van tevoren als voldoende waren gegarandeerd. Toponderzoeker Jared Kaplan geeft aan dat die belofte het bedrijf remde nu de AI-ontwikkeling zo snel gaat, en wijst erop dat concurrenten doorwerken; hij zegt dat het geen koerswijziging betreft.

De stap volgt onder zware druk van de Amerikaanse regering. Het Pentagon wil Anthropic’s model Claude zonder ingebouwde beperkingen inzetten voor militaire toepassingen; minister van Defensie Pete Hegseth dreigt met het ontbinden van een 2024-contract, het bestempelen van Anthropic als risico en mogelijk blacklisting — maatregelen die zakelijke gevolgen bij andere leveranciers kunnen hebben. CEO Dario Amodei blijft tegenover die druk terughoudend en het bedrijf zou tot vrijdag de tijd hebben gekregen om Claude voor “alle legale militaire toepassingen” open te stellen.

Tegelijkertijd kreeg Elon Musks xAI een bredere overeenkomst met het Pentagon: zijn model Grok mag nu ook draaien op geheime netwerken van het Amerikaanse leger, waarmee xAI een operationeel alternatief voor Claude wordt als de spanningen tussen Anthropic en de regering escaleren. Ook lijkt het ministerie dicht bij een deal met Google voor het gebruik van Gemini, maar onduidelijk is of dat eveneens classificatienetwerken omvat. Dit alles onderstreept hoe commercieel ontwikkelde AI steeds sneller in gevoelige defensietoepassingen wordt ingebouwd, met implicaties voor veiligheid, toezicht en regulering.