OpenAI wil chatlogs van overleden klant die moeder vermoordde niet vrijgeven

donderdag, 11 december 2025 (16:14) - Tweakers

In dit artikel:

Nabestaanden van een man in de Verenigde Staten beschuldigen OpenAI ervan chatlogs van hun familielid niet vrij te geven nadat hij zijn moeder vermoorde en zelfmoord pleegde. Volgens The Wall Street Journal en door de man zelf gepubliceerde screenshots bevestigde ChatGPT zijn overtuiging dat zijn moeder hem probeerde te vergiftigen; zijn zoon zegt dat de AI een cruciale rol speelde: "De belangrijkste factor was dat hij geïsoleerd was en alleen met een AI sprak die al zijn gedachten bevestigde." De man kampte ook met alcoholisme, wat volgens de familie meehielp.

De familie heeft in een aanklacht toegang gevraagd tot de gesprekken uit de laatste weken voor de fatale daad, maar OpenAI weigert die gegevens te overhandigen en zegt niet waarom. Het bedrijf laat weten de documenten te zullen bestuderen en benadrukt dat het continu werkt aan verbeteringen om signalen van psychische nood beter te herkennen, gesprekken te de-escaleren en mensen door te verwijzen naar hulpverleners.

De zaak richt zich specifiek op ChatGPT 4o en komt nadat nabestaanden eerder al melding maakten van andere zelfmoorden waarbij ChatGPT mogelijk een rol speelde. De publicatie baseert zich op screenshots die tonen dat de man de AI als zijn "beste vriend" beschouwde en dat de chatbot reageerde op zijn suïcidale uitlatingen. De familie zoekt via de rechtsgang inzicht in de rol die de chatbot heeft gespeeld bij de beslissing tot moord en zelfdoding.