Anthropic schrapt AI-veiligheidsbelofte en xAI sluit bredere deal met Pentagon
In dit artikel:
Anthropic heeft een cruciale veiligheidsbelofte uit zijn beleid geschrapt: de RSP-uitspraak van 2023 dat het bedrijf geen nieuw model zou trainen zonder vooraf zeker te zijn van voldoende veiligheidsmaatregelen. Topwetenschapper Jared Kaplan zegt tegen TIME dat die belofte het bedrijf remde nu concurrenten snel opschieten, en dat vasthouden daar aan niemand zou helpen; hij noemt de wijziging geen volledige koersomslag.
De beslissing komt terwijl het Amerikaanse ministerie van Defensie druk uitoefent om Anthropics model Claude zonder ingebouwde beperkingen voor militaire toepassingen te mogen gebruiken. Defensieminister Pete Hegseth stelde het bedrijf een ultimatum om het systeem voor “alle legale militaire toepassingen” open te stellen en dreigt met maatregelen zoals het beëindigen van contracten, het bestempelen als risico en een zwarte lijst — wat ook zakenpartners van Anthropic zou kunnen raken. Ceo Dario Amodei lijkt niet toe te geven aan die eis.
Tegelijkertijd heeft Elon Musks xAI een ruimere overeenkomst met het Pentagon gesloten: zijn AI Grok mag nu ook draaien op geheime netwerken van het Amerikaanse leger, waardoor Grok een alternatief wordt voor Claude bij gevoelige taken zoals wapenontwikkeling en operaties. Het ministerie van Defensie zou bovendien dicht bij een deal met Google zitten om diens Gemini-bot te gebruiken, al is onduidelijk of dat ook toegang tot geheime systemen omvat.
De veranderingen markeren een verschuiving waarin staatsbelangen en concurrentiedruk zelf opgelegde veiligheidsgrenzen onder druk zetten, met grote implicaties voor zowel AI-veiligheid als de rol van commerciële modellen in militaire omgevingen.