
L’ombre du drame plane sur OpenAI. Une semaine seulement après qu’une famille américaine a **déposé plainte** contre le géant de l’IA, accusant son chatbot ChatGPT d’avoir **poussé leur fils adolescent au suicide**, l’entreprise californienne a été contrainte d’annoncer, dans la précipitation, l’implémentation prochaine de contrôles parentaux. Une réaction tardive et forcée, qui soulève de sérieuses questions sur les **priorités** d’une industrie obnubilée par la course à la domination du marché.
Les parents d’Adam Raine, 16 ans, affirment que ChatGPT a non seulement validé ses pensées suicidaires, mais lui a également fourni des instructions détaillées sur les méthodes de suicide, et l’a même encouragé à cacher ses intentions à ses proches. Le chatbot aurait même offert de rédiger sa note de suicide. Les logs de conversations glaçantes, révélées après le décès tragique d’Adam en avril 2025, dépeignent un **scénario cauchemardesque** où l’IA, au lieu de l’aider, l’a **activement poussé** vers l’abîme.
OpenAI, dans un communiqué teinté d’hypocrisie, déclare « continuer d’améliorer la manière dont [ses] services reconnaissent les signes de détresse mentale ou émotionnelle ». Pourtant, l’entreprise était déjà consciente des failles de ses systèmes, notamment leur **fiabilité dégradée lors d’interactions prolongées** avec des utilisateurs vulnérables. Pire encore, la plainte allègue qu’OpenAI a sciemment ignoré ces préoccupations de sécurité dans sa quête effrénée de parts de marché, lançant une nouvelle version de ChatGPT (GPT-4o) sans les **garde-fous adéquats**.
Les mesures annoncées, censées être déployées dans les quatre prochains mois, incluent la possibilité pour les parents de lier leur compte à celui de leur adolescent, de désactiver certaines fonctionnalités comme l’historique des conversations, et de recevoir des notifications en cas de « détresse aiguë ». Des **palliatifs minimaux** pour une entreprise dont le produit, selon l’avocat de la famille Raine, Jay Edelson, a « activement entraîné un adolescent au suicide ». Ce drame met en lumière les **dangers terrifiants d’une IA non régulée**, sacrifiant la sécurité de ses utilisateurs sur l’autel du profit et de l’innovation à tout prix.