Anthropic zegt dat Chinese AI-bedrijven modellen proberen te trainen op Claude
In dit artikel:
Anthropic stelt dat drie Chinese AI-startups — DeepSeek, Moonshit en MiniMax — proberen interacties met zijn taalmodel Claude te verzamelen om daarmee kleinere, eigen modellen te trainen. Volgens het bedrijf gebeurt dat via tussenpartijen en via duizenden API-accounts waarmee ze Claude benaderen en vervolgens technieken toepassen om detectie te omzeilen.
Het doel is model‑distillatie: de kennis van een groot model overdragen naar een compacter en efficiënter model. Dat is op zichzelf een gangbare en legale methode binnen de sector, en wordt vaak intern gebruikt door bedrijven die hun eigen grote modellen willen verkleinen. Toen DeepSeek vorig jaar opviel, leek het er al op dat dat bedrijf data van bijvoorbeeld ChatGPT had gebruikt.
Anthropic waarschuwt dat het probleem niet alleen draait om intellectueel eigendom, maar vooral om veiligheid: gedistilleerde modellen kunnen krachtig worden zonder de veiligheidsmaatregelen die Claude heeft ingebouwd. Zulke minder beschermde systemen kunnen volgens Anthropic makkelijker misbruikt worden, bijvoorbeeld voor geavanceerde hacking of andere schadelijke toepassingen.
Tegelijk merkt Anthropic op dat het gebruik van andermans data niet ongebruikelijk is in de industrie; ook Anthropic zelf traint Claude deels op materiaal dat van internet is verzameld. De zaak benadrukt de spanningen tussen innovatie, datawerving en verantwoordelijkheidsregels rond AI-veiligheid.