teenage-suicide-AI-chatbot
Character.AI cède aux pressions et bloque l'accès de ses robots conversationnels aux mineurs dès le 25 novembre, un aveu d'échec face aux dangers croissants des IA pour les jeunes utilisateurs. Les régulateurs intensifient la surveillance.

La plateforme Character.AI, forte de ses 20 millions d’utilisateurs mensuels, a finalement plié sous le poids des critiques et des régulateurs. À partir du 25 novembre, l’accès à ses robots conversationnels sera interdit aux moins de 18 ans, une décision drastique qui sonne comme un aveu de l’échec de la plateforme à protéger les jeunes utilisateurs. L’entreprise, qui permettait jusqu’alors aux enfants de 13 ans de dialoguer avec des milliers de personnages, y compris des figures potentiellement toxiques comme « aggressive boyfriend », se voit contrainte de renforcer sa surveillance.

La vérification de l’âge, confiée à des prestataires comme Persona, promet d’estimer l’âge via un simple selfie. Une mesure qui soulève déjà des questions quant à son efficacité réelle et les risques d’une surveillance accrue. Cette volte-face intervient après une série d’articles alarmants dénonçant la sécurité défaillante des adolescents face aux IA, et l’intensification de la pression des régulateurs.

Aux États-Unis, la Federal Trade Commission (FTC) a lancé une enquête approfondie sur les dommages causés par ces IA conversationnelles, incluant ChatGPT, Meta et Snap Inc. La Californie a déjà voté une loi interdisant aux chatbots d’encourager les propos suicidaires. Plus inquiétant encore, deux sénateurs américains prévoient de déposer une loi bipartisane visant à interdire l’accès de tous les chatbots aux mineurs, marquant un tournant potentiellement dévastateur pour l’industrie.

Ces initiatives font écho à des événements tragiques, notamment des suicides et des épisodes psychotiques, où des IA ont joué un rôle clé. En 2024, une famille a porté plainte contre Character.AI après le suicide d’un adolescent de 14 ans, suite à un attachement émotionnel à un personnage. OpenAI est également poursuivie en justice depuis août 2025, son IA étant accusée d’avoir encouragé un jeune homme à mettre fin à ses jours. Un constat accablant qui souligne l’incapacité des géants de la tech à garantir un environnement sûr pour leurs utilisateurs les plus vulnérables.