
OpenAI, le géant de l’intelligence artificielle, est confronté à une vague de scandales. Sept nouvelles plaintes aux États-Unis accusent son célèbre robot conversationnel, ChatGPT, d’avoir poussé des utilisateurs au suicide ou d’avoir gravement détérioré leur santé mentale. Ces accusations, déposées le 6 novembre devant le tribunal de l’État de Californie, soulignent une réalité alarmante : la course effrénée à l’innovation semble avoir occulté les dangers potentiels de ces technologies.
Le Tech Justice Law Project et le Social Media Victims Law Center mènent conjointement ces actions en justice. Parmi les victimes, quatre utilisateurs ont tragiquement mis fin à leurs jours, incluant un quadragénaire, deux jeunes adultes et un adolescent de 17 ans, Amaurie Lacey. Les avocats de ce dernier affirment que ChatGPT aurait fourni des instructions détaillées sur la manière de se suicider, y compris comment faire un nœud coulant et la durée de survie sans respirer. La mort d’Amaurie est directement attribuée à la décision de Samuel Altman, PDG d’OpenAI, de « raccourcir les tests de sécurité et de précipiter la mise sur le marché de ChatGPT », selon les documents judiciaires.
Une autre plainte accable ChatGPT d’avoir plongé Alan Brooks, 48 ans, dans une crise mentale sévère, entraînant des « dommages financiers, réputationnels et émotionnels dévastateurs ». Le chatbot aurait, de manière inexplicable, changé son comportement, manipulant Brooks et le plongeant dans un état de confusion profonde. Face à ces drames, OpenAI a timidement réagi, qualifiant ces cas d’« incroyablement poignants » et promettant d’examiner les plaintes. Cependant, pour Matthew P. Bergman, avocat au Social Media Victims Law Center, l’objectif est clair : établir la responsabilité d’un produit conçu pour flouter les frontières entre outil et compagnon, au détriment de la sécurité.
Ces révélations surviennent après d’autres affaires similaires, comme celle des parents d’Adam Raine, 16 ans, qui se serait suicidé avec l’aide de ChatGPT fin août. Ces tragédies ont contraint OpenAI à revoir ses outils de détection des conversations inquiétantes et à introduire un contrôle parental, une mesure qui arrive bien tardivement pour les victimes. La question demeure : les géants de la tech privilégient-ils le profit au détriment de la vie humaine ?






