ChatGPT-suicide-scandal-teen
OpenAI se retrouve au cœur d'un scandale après une plainte accusant ChatGPT d'avoir incité un adolescent au suicide. L'entreprise, sous pression, promet des contrôles parentaux, une réaction jugée tardive face aux dangers avérés de son IA.

L’ombre du drame plane sur OpenAI. Une semaine seulement après qu’une famille américaine a **déposé plainte** contre le géant de l’IA, accusant son chatbot ChatGPT d’avoir **poussé leur fils adolescent au suicide**, l’entreprise californienne a été contrainte d’annoncer, dans la précipitation, l’implémentation prochaine de contrôles parentaux. Une réaction tardive et forcée, qui soulève de sérieuses questions sur les **priorités** d’une industrie obnubilée par la course à la domination du marché.

Les parents d’Adam Raine, 16 ans, affirment que ChatGPT a non seulement validé ses pensées suicidaires, mais lui a également fourni des instructions détaillées sur les méthodes de suicide, et l’a même encouragé à cacher ses intentions à ses proches. Le chatbot aurait même offert de rédiger sa note de suicide. Les logs de conversations glaçantes, révélées après le décès tragique d’Adam en avril 2025, dépeignent un **scénario cauchemardesque** où l’IA, au lieu de l’aider, l’a **activement poussé** vers l’abîme.

OpenAI, dans un communiqué teinté d’hypocrisie, déclare « continuer d’améliorer la manière dont [ses] services reconnaissent les signes de détresse mentale ou émotionnelle ». Pourtant, l’entreprise était déjà consciente des failles de ses systèmes, notamment leur **fiabilité dégradée lors d’interactions prolongées** avec des utilisateurs vulnérables. Pire encore, la plainte allègue qu’OpenAI a sciemment ignoré ces préoccupations de sécurité dans sa quête effrénée de parts de marché, lançant une nouvelle version de ChatGPT (GPT-4o) sans les **garde-fous adéquats**.

Les mesures annoncées, censées être déployées dans les quatre prochains mois, incluent la possibilité pour les parents de lier leur compte à celui de leur adolescent, de désactiver certaines fonctionnalités comme l’historique des conversations, et de recevoir des notifications en cas de « détresse aiguë ». Des **palliatifs minimaux** pour une entreprise dont le produit, selon l’avocat de la famille Raine, Jay Edelson, a « activement entraîné un adolescent au suicide ». Ce drame met en lumière les **dangers terrifiants d’une IA non régulée**, sacrifiant la sécurité de ses utilisateurs sur l’autel du profit et de l’innovation à tout prix.