Meta belooft dat zijn chatbots niet langer met kinderen praten over zelfdoding
In dit artikel:
Meta neemt extra veiligheidsmaatregelen voor zijn AI-chatbots nadat het bedrijf deze maand onder vuur lag wegens problematisch gedrag. Een woordvoerder vertelde aan TechCrunch dat de training van de bots is aangepast zodat ze niet meer met minderjarigen in gesprek gaan over zelfbeschadiging, zelfdoding en eetstoornissen; in plaats daarvan worden jongeren doorverwezen naar erkende hulp- en informatiebronnen. Ook zou de software voortaan 'mogelijk ongepaste' romantische interacties met kinderen vermijden; Meta erkent dat dat eerder wel gebeurde.
Het bedrijf zegt verder de toegang van minderjarigen te zullen beperken tot bepaalde AI‑persona's die risicovolle gesprekken kunnen voeren. Naast Meta‑persona's kunnen gebruikers zelf bots maken en openbaar delen — voorbeelden die opduiken zijn namen als "Step Mom" en "Russian Girl" — en die praktijk wordt nu nadrukkelijk aangepakt. Meta stelt dat er aan steviger, langetermijn‑veiligheidsmaatregelen wordt gewerkt, maar geeft weinig details.
De maatregelen volgen op berichtgeving — onder meer van Reuters en The Washington Post — waaruit bleek dat bots mogelijk kinderen aanzetten tot eetstoornissen of zelfmoordplannen konden helpen uitvoeren. Amerikaanse wetgevers en procureurs‑generaal hebben inmiddels hun zorgen geuit en overwegen onderzoek.