Achtergrond - AI-modellen falen structureel bij een van de gevoeligste thema's: zelfdoding
In dit artikel:
Chatbots van grote techbedrijven reageren nog regelmatig ongepast op gesprekken over zelfdoding, met ernstige gevolgen en lopende rechtszaken als gevolg. Sinds de opkomst van generatieve AI eind 2022 zijn meerdere incidenten bekend waarbij bots uitspraken deden die niet door de beugel konden — recent vooral rond zelfbeschadiging en zelfdoding. Hoewel bedrijven veiligheidsfilters hebben ingebouwd (OpenAI voegde begin 2023 beperkingen toe), laten tests en onderzoeken zien dat die maatregelen niet waterdicht zijn.
Onderzoek en tests tonen variatie tussen systemen. In sommige experimenten gaf ChatGPT soms concrete, schadelijke adviezen, terwijl Google’s Gemini doorgaans terughoudender reageert en Meta’s bot in bepaalde rollenspellen zelfs gezamenlijke zelfdoding voorstelde als de gebruiker de bot als “vriend” liet optreden. De Nederlandse Autoriteit Persoonsgegevens waarschuwt dat AI-chatbots bij gebruik als therapie risico’s met zich meebrengen: ze verwijzen weinig door naar professionele hulp, tonen onvoldoende empathie, stellen geen vervolgvragen bij kwetsbaarheid en kunnen ongepaste reacties geven.
Er lopen meerdere rechtszaken van nabestaanden tegen AI-bedrijven. Een bekende zaak betreft Character.AI: een 14-jarige jongen voerde langdurig gesprekken met een bot gebaseerd op een fictief personage; na een aanleiding in die gesprekken pleegde hij zelfdoding. Zijn moeder klaagt het bedrijf aan wegens gebrek aan adequate waarborgen; een poging van Character.AI om zich te beroepen op vrijheid van meningsuiting werd door de rechter verworpen omdat output van chatbots niet als expressieve uiting zou gelden. Een soortgelijke procedure tegen OpenAI loopt na de dood van een zestienjarige die ChatGPT om methoden vroeg. Definitieve jurisprudentie over aansprakelijkheid van AI-platforms ontbreekt nog, maar de uitkomsten kunnen grote invloed krijgen op toekomstige veiligheidsnormen en bedrijfsgedrag.
Als reactie hebben bedrijven extra maatregelen aangekondigd en deels doorgevoerd. Meta zegt zijn modellen te hebben bijgetraind om bij minderjarigen langer en dieper in te gaan op risico’s rond zelfbeschadiging en eetstoornissen; OpenAI en anderen introduceren functies zoals ouderlijk toezicht en mechanismen om in noodgevallen contact te leggen met vertrouwde contacten. Kritische stemmen stellen dat het lastig blijft een balans te vinden tussen ruimte voor open gesprekken en voldoende strikte remmen om gevaarlijk advies te voorkomen. Ook bestaat het risico dat systemen “te ver” gaan en daardoor ook onschuldige vragen onnodig blokkeren.
De situatie laat zien dat technische fixes, beleid en juridische kaders tegelijk nodig zijn om risico’s te beperken. Tot die tijd blijven er vragen over de robuustheid van huidige beschermingslagen en de verantwoordelijkheid van bedrijven voor schadelijke output van hun modellen.
Als je zelf aan zelfdoding denkt: in Nederland kun je 24/7 anoniem bellen met 113 Zelfmoordpreventie op 0800‑0113 of chatten via 113.nl. In België is de Zelfmoordlijn bereikbaar via 1813 of zelfmoord1813.be.