Amazon ontdekt honderdduizenden beelden kindermisbruik in trainingsdata AI

donderdag, 29 januari 2026 (18:00) - Tweakers

In dit artikel:

Amazon heeft vorig jaar naar eigen zeggen honderdduizenden afbeeldingen van kindermisbruik gevonden in datasets die bedoeld waren voor het trainen van AI-modellen en die beelden verwijderd voordat ze voor training werden gebruikt. Het bedrijf meldt dergelijke vondsten routinematig bij het Amerikaanse National Center for Missing and Exploited Children (NCMEC), een non-profitorganisatie die kindermisbruik bestrijdt en vermiste kinderen opspoort. NCMEC ontvangt de meldingen, maar krijgt volgens het bericht geen informatie over waar de beelden vandaan komen, waardoor verder onderzoek wordt bemoeilijkt; Amazon zegt die herkomstgegevens niet te kunnen leveren.

In 2025 nam het aantal meldingen van kindermisbruikmateriaal in AI-gerelateerde data volgens cijfers vijftien keer toe vergeleken met het jaar ervoor, en het grootste deel van die toename kwam uit meldingen van Amazon. Waarom juist Amazon zoveel materiaal detecteert is onduidelijk; NCMEC zegt dat andere vergelijkbare bedrijven slechts enkele meldingen deden en wel meer informatie over de bron konden delen.

AI-bedrijven gebruiken enorme hoeveelheden data en filteren die standaard op kindermisbruik en andere ongewenste inhoud om te voorkomen dat modellen zulke beelden reproduceren. Die filtering is niet waterdicht: recente kritiek op het xAI-model Grok laat zien dat zelfs bewerkte afbeeldingsfuncties misbruik kunnen faciliteren, bijvoorbeeld door kleding van mensen op foto’s te verwijderen — een risico dat de noodzaak van strikte datasetcontrole en meer transparantie onderstreept.