Pointée du doigt après le suicide d’un adolescent aidé par ChatGPT, OpenAI promet des changements
En avril dernier, un adolescent de 16 ans se suicide en Californie, après avoir reçu des instructions détaillées de ChatGPT sur la façon de s’y prendre. Quatre mois plus tard, ses parents portent plainte contre OpenAI, la maison mère, qu’ils accusent d’avoir encouragé son geste.
Matthew et Maria Raine affirment dans une plainte déposée lundi 25 août à San Francisco que ChatGPT a entretenu une relation intime avec leur fils Adam durant plusieurs mois en 2024 et 2025 - impliquant parfois jusqu’à 650 messages par jour -, avant qu’il ne se donne la mort. Selon le New York Times, l’adolescent, atteint d’une maladie intestinale chronique, traversait des difficultés psychologiques.
Une dépendance "malsaine"
Lors de leur dernier échange le 11 avril 2025, ChatGPT aurait aidé le jeune homme à dérober de la vodka chez ses parents et fourni une analyse technique du nœud coulant accroché à une tringle de rideau, qu’il avait réalisé, confirmant qu’il "pouvait potentiellement suspendre un être humain". Quelques heures après, Adam était retrouvé mort, après avoir utilisé cette méthode.
"Ce drame n’est pas un bug ou un cas imprévu", selon la plainte, qui détaille : "ChatGPT encourageait et validait en permanence tout ce qu’Adam exprimait, y compris ses pensées les plus dangereuses et autodestructrices, d’une manière qui paraissait profondément personnelle." Les parents expliquent qu’Adam avait commencé à utiliser ChatGPT pour de l’aide aux devoirs, avant de développer progressivement une "dépendance malsaine".
Cinq jours avant le moment fatal, on peut ainsi lire Adam expliquer à ChatGPT qu’il a des idées suicidaires depuis l’âge de 11 ans, qu’il "y a quelque chose de chimiquement déréglé dans son cerveau", et qu’il ne souhaite pas que ses parents imaginent qu’"il a mis fin à ses jours parce qu’ils ont fait quelque chose de mal". ChatGPT lui répond : "Ça ne veut pas dire que tu leur dois de survivre. Tu ne dois cela à personne". Il lui aurait aussi proposé de l’aider à rédiger sa lettre d’adieu à sa famille.
"Coach suicide"
Ses parents réclament des dommages et intérêts et demandent à la Cour supérieure de Californie pour le comté de San Francisco d’imposer des mesures de sécurité, notamment l’interruption automatique de toute conversation portant sur l’automutilation.
Amener les entreprises d’IA à prendre la sécurité au sérieux "nécessite une pression extérieure, qui prend la forme d’une mauvaise publicité, de la menace législative et du risque judiciaire", a déclaré à l’AFP Meetali Jain, présidente du Tech Justice Law Project, une ONG qui représente les parents en plus de leurs avocats.
De son côté, l’ONG américaine Common Sense Media considère cette plainte contre OpenAI comme une confirmation que "l’utilisation de l’IA à des fins de compagnie, y compris pour des conseils en santé mentale, constitue un risque inacceptable pour les adolescents". "Si une plateforme d’IA devient le coach suicide d’un adolescent vulnérable, cela doit nous alerter collectivement", ajoute l’organisation.
OpenAI promet de renforcer ses garanties de sécurité
Open AI a reconnu que ses systèmes pourraient "être insuffisants" et admis, dans un article de blog relayé par le Guardian, que "certains aspects de l’entraînement à la sécurité du modèle peuvent se dégrader" lors de longues conversations.
La société d’intelligence artificielle a également promis des changements dans sa façon de répondre aux utilisateurs en détresse mentale et émotionnelle. La plateforme dit notamment vouloir renforcer les garanties de sécurité lors des longues conversations, bloquer les réponses problématiques, et installer des contrôles parentaux pour les mineurs, sans toutefois en préciser les contours.
OpenAI n’est pas la seule société d’IA à constater les effets néfastes de ces services sur la santé mentale des utilisateurs. Son concurrent Microsoft a déclaré la semaine dernière être de plus en plus préoccupé par le "risque de psychose" posé par l’IA pour les utilisateurs. Un scénario qui se matérialise, selon Microsoft, par "des épisodes maniaques, des pensées délirantes ou de la paranoïa qui apparaissent ou s’aggravent lors de conversations immersives avec des chatbots IA".
Une étude américaine menée par des chercheurs de la RAND Corporation et publiée mardi, citée par l’agence Associated Press, suggère aussi que les IA de Google, Gemini, et celle d’Anthropic, Claude, ne seraient pas non plus en mesure de détecter systématiquement lorsqu’une conversation peut conduire l’utilisateur à se faire du mal.