Google, Microsoft en xAI laten overheid AI-modellen vooraf testen
In dit artikel:
Google, Microsoft en xAI geven de Amerikaanse overheid toegang tot niet‑publieke versies van hun meest geavanceerde AI‑modellen zodat die door een overheidsinstantie getest kunnen worden voordat ze openbaar gaan. De evaluaties worden uitgevoerd door het Center for AI Standards and Innovation (CAISI), onderdeel van het Amerikaanse ministerie van Handel, dat nu als centraal beoordelpunt voor commerciële “frontier” AI‑systemen moet fungeren.
De focus van de tests ligt op nationale veiligheidsrisico’s: cyberveiligheid, bioveiligheid en de mogelijke toepassing van AI bij chemische wapens. CAISI voert al tientallen beoordelingen uit, waaronder op modellen die nog niet publiek waren, en breidt die activiteiten uit na eerdere vergelijkbare afspraken die OpenAI en Anthropic ongeveer twee jaar geleden met de regering sloten. Volgens CAISI‑directeur Chris Fall zijn onafhankelijke, technisch gedetailleerde toetsen nodig om de veiligheidsimpact van krachtige AI goed in te schatten; samenwerking met bedrijven maakt snelle en grootschalige controles mogelijk nu de technologie zich razendsnel ontwikkelt.
De stap markeert een politieke verschuiving. Hoewel de regering‑Trump zich tot voor kort terughoudend opstelde tegenover streng toezicht—uit vrees innovatie en concurrentiepositie tegenover China te schaden—neemt de druk vanuit Washington toe. Deelreleases zoals Anthropic’s Claude Mythos hebben opnieuw zorgen doen oplaaien over de snelheid waarmee krachtige systemen beschikbaar komen. De New York Times meldde bovendien dat er gewerkt wordt aan een mogelijk presidentieel decreet voor AI‑governance, waarmee overheid en industrie formele beoordelingsprocedures zouden instellen.
De initiatiefnemers noemen als drijfveren groeiende zorgen rond cyberaanvallen, baanverlies, desinformatie en mentale gezondheid. Toegang tot pre‑release modellen geeft de overheid meer zicht en invloed op risico’s, maar roept ook vragen op over transparantie, concurrentie en de balans tussen veiligheid en innovatie.