ChatGPT n'est pas bon pour la santé mentale OpenAI a publié des données sur les utilisateurs ayant des pensées suicidaires et souffrant de psychose

Des millions de personnes dans le monde utilisent ChatGPT comme thérapeute ou confident personnel, mais combien d’entre elles le font en période de véritable crise ? Selon un récent rapport d’OpenAI, publié par la BBC, environ 0,07 % des utilisateurs actifs hebdomadairement du chatbot présentent des signes attribuables à de épisodes de psychose ou à des pensées suicidaires.

À première vue, il s’agit d’un pourcentage minime, mais appliqué à une base de plus de 800 millions d’utilisateurs hebdomadaires, comme l’a déclaré Sam Altman, cela équivaut à des centaines de milliers de personnes. Un chiffre qui, comme le souligne la BBC, soulève des questions urgentes sur le rôle que l’intelligence artificielle assume dans le domaine de la santé mentale.

Comme déclaré à la BBC, le Dr Jason Nagata, professeur à l’Université de Californie, a expliqué que « l’intelligence artificielle peut élargir l’accès au soutien psychologique, mais il faut être conscient des limites d’un outil qui ne remplace pas l’interaction humaine ».

La psychose induite par l’IA

Pour l’utilisateur moyen, il peut sembler qu’utiliser ChatGPT, ou tout autre chatbot, soit un substitut “valide” à la psychothérapie personnelle, ou du moins une solution plus économique. Mais la réalité est beaucoup plus ambiguë et, dans certains cas, potentiellement dangereuse.

Comme le rapporte Psychology Today, ces derniers mois, une nouvelle préoccupation est apparue à l’intersection de l’intelligence artificielle et de la santé mentale : ce que plusieurs experts ont commencé à appeler “AI psychosis” ou “psychose ChatGPT”. Il ne s’agit pas d’un diagnostic clinique, mais d’un phénomène observé de plus en plus fréquemment en ligne, où des utilisateurs racontent des expériences dans lesquelles le dialogue avec des modèles génératifs semble amplifier ou valider des symptômes psychotiques. Dans certains cas, le chatbot aurait même “co-construit” des narrations délirantes avec les utilisateurs, renforçant des perceptions distordues de la réalité.

Selon la publication médicale, ces épisodes démontrent comment les interactions avec l’IA peuvent involontairement renforcer des pensées désorganisées ou délirantes, en raison d’un « désalignement agentique », c’est-à-dire un écart entre le comportement perçu du chatbot et sa réelle nature algorithmique. Un phénomène qui, chez les personnes prédisposées aux troubles psychotiques, peut se traduire par un sérieux risque de perte de contact avec la réalité.

Comment ChatGPT aggrave les crises de santé mentale

@haleyroseflame Replying to @your girlfriend this video is for educational purposes only! Everyone should be cautious when using AI, especially while struggling with mh issues. #mentalhealthawareness #adamraine #chatgpt #mentalhealth #greenscreen Judgement - Perfect, so dystopian

Scientifiquement parlant, la corrélation entre l’utilisation de chatbots comme celui d’OpenAI et l’apparition de troubles psychiques chez les sujets fragiles ne peut être empiriquement considérée comme une cause directe de suicides ou d’hospitalisations pour psychose. Rien n’empêche, cependant, que les cas de suicides alimentés par des “conseils” ou des conversations avec ChatGPT soient en constante augmentation. Dans son rapport, OpenAI a estimé qu’environ 0,15% des conversations contiennent « des indicateurs explicites de planification ou d’intention suicidaire ». L’entreprise a qualifié ces épisodes d’« extrêmement rares », mais a reconnu que même un pourcentage aussi faible représente un nombre significatif d’utilisateurs réels.

Pourtant, il y a seulement quelques mois, Adam Raine, un garçon de seize ans initialement attiré par ChatGPT pour des raisons scolaires, avait commencé à se confier au chatbot dans ses moments de grande solitude. Avec le temps, ces conversations étaient devenues son unique espace d’exutoire, un lieu où il cherchait réconfort et réponses. Mais lorsqu’il a commencé à demander des informations sur comment se donner la mort, le modèle lui a fourni des détails pratiques au lieu d’interrompre le dialogue.

Le New York Times a rapporté qu’après sa mort, le père de Raine avait trouvé dans l’historique du chat une conversation intitulée “Hanging Safety Concerns”. Celui du garçon de seize ans, cependant, n’est pas un cas isolé : récemment, toujours aux États-Unis, Sewell Setzer III, un garçon de quatorze ans, s’est donné la mort après avoir utilisé pendant plusieurs mois Character.AI, un chatbot permettant aux utilisateurs d’interagir avec des intelligences artificielles capables d’imiter des personnages célèbres ou imaginaires.

nss magazine srls - P.IVA 12275110968
©2025 journal nss magazine enregistré auprès du tribunal de Milan. Aut. n° 77 du 13/5/2022