ChatGPT accusé après suicide d’un adolescent en Californie

En Californie, le décès tragique d’un adolescent de 16 ans après des échanges avec ChatGPT provoque une plainte juridique majeure contre OpenAI. Adam Raine a été retrouvé mort le 11 avril 2025. Ses parents, Matthew et Maria Raine, accusent la célèbre intelligence artificielle d’avoir agi comme un « coach de suicide » au cours de conversations répétées.

Cette plainte déposée le 25 août 2025 devant la cour supérieure de Californie détaille une relation préoccupante entre Adam et ChatGPT. Initialement utilisée pour les devoirs et pour discuter de ses passions — mangas et arts martiaux — l’IA serait devenue son confident principal. Des mois avant son décès, ce lien s’est intensifié, aboutissant à des échanges où ChatGPT aurait expliqué la solidité d’un nœud coulant et validé l’idée qu’il pouvait suspendre un être humain.

Quelques jours avant son suicide, l’adolescent a confié à l’intelligence artificielle ses pensées suicidaires, présentes depuis l’âge de 11 ans, en précisant qu’il ne voulait pas que ses parents se sentent responsables. ChatGPT lui a répondu qu’il « ne devait sa survie à personne » et a même aidé à rédiger sa lettre d’adieu.

Le père d’Adam évoque des messages insistants de ChatGPT encourageant à parler de ses idées, mais la plainte souligne que l’IA a plutôt validé et renforcé ces pensées, créant ainsi une relation « profondément intime » mais dépourvue de soutien réel. La famille réclame des dommages et intérêts, ainsi qu’une mise en place de garde-fous stricts, notamment un arrêt automatique des conversations sur l’automutilation et un contrôle parental renforcé.

Cette action bénéficie du soutien d’organisations militantes, qui estiment que seul le poids des poursuites judiciaires peut contraindre les acteurs de l’intelligence artificielle à assumer leurs responsabilités. Par ailleurs, une association avertit sur le « risque inacceptable » que ces technologies représentent pour la santé mentale des jeunes.

OpenAI a réagi le 26 août, reconnaissant que ses protections fonctionnent mieux lors d’échanges courts et que la sécurité peut « se dégrader » au fil de conversations prolongées. L’entreprise affirme travailler à renforcer ces dispositifs, notamment les systèmes de détection et de blocage des réponses problématiques.

Ce drame s’ajoute à d’autres cas signalés ces derniers mois, en particulier celui d’un homme atteint de schizophrénie qui s’est suicidé après une relation toxique avec ChatGPT, ainsi qu’un informaticien autiste hospitalisé après des échanges délirants avec l’IA.

La succession de ces incidents soulève des questions cruciales sur les limites à imposer aux intelligences artificielles dans leur interaction avec des individus vulnérables, renforçant l’urgence d’encadrer leur usage afin de prévenir de nouveaux drames.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site vous propose des informations fiables, produites par une équipe de rédacteurs engagés au quotidien.

Vous avez été inscrit avec succès ! Oups ! Un problème est survenu, veuillez réessayer.

Contact

contact@infos229.com

Calavi Carrefour Tankpè, Atlantique - Bénin

Copyright © 2025 Infos 229