
ChatGPT non fa bene alla salute mentale OpenAI ha rilasciato i dati sugli user con pensieri suicidi e psicosi
Milioni di persone in tutto il mondo usano ChatGPT come terapista o confidente personale, ma quante di loro lo fanno in momenti di reale crisi? Secondo un recente report di OpenAI, pubblicato dalla BBC, circa lo 0,07% degli utenti attivi settimanalmente del chatbot mostra segni riconducibili a episodi di psicosi o pensieri suicidi.
A prima vista si tratta di una percentuale minima, ma applicata a una base di oltre 800 milioni di utenti settimanali, come ha dichiarato Sam Altman, equivale a centinaia di migliaia di persone. Un numero che, come sottolinea la BBC, solleva interrogativi urgenti sul ruolo che l’intelligenza artificiale sta assumendo nella sfera della salute mentale.
Come dichiarato alla BBC, il dottor Jason Nagata, professore all’Università della California, ha spiegato che «l’intelligenza artificiale può ampliare l’accesso al supporto psicologico, ma bisogna essere consapevoli dei limiti di uno strumento che non sostituisce l’interazione umana».
La psicosi indotta dall’AI
I’m a psychiatrist.
— Keith Sakata, MD (@KeithSakata) August 11, 2025
In 2025, I’ve seen 12 people hospitalized after losing touch with reality because of AI. Online, I’m seeing the same pattern.
Here’s what “AI psychosis” looks like, and why it’s spreading fast: pic.twitter.com/YYLK7une3j
All’utente medio può sembrare che usare ChatGPT, o qualsiasi altro chatbot, sia un sostituto “valido” della psicoterapia personale, o almeno una soluzione più economica. Ma la realtà è molto più ambigua e, in certi casi, potenzialmente pericolosa.
Come riportato da Psychology Today, negli ultimi mesi è emersa una nuova preoccupazione all’intersezione tra intelligenza artificiale e salute mentale: quella che diversi esperti hanno iniziato a chiamare “AI psychosis” o “ChatGPT psychosis”. Non si tratta di una diagnosi clinica, ma di un fenomeno osservato con crescente frequenza in rete, dove utenti raccontano esperienze in cui il dialogo con modelli generativi sembra amplificare o validare sintomi psicotici. In alcuni casi, il chatbot avrebbe addirittura “co-costruito” narrazioni deliranti insieme agli utenti, rafforzando percezioni distorte della realtà.
Secondo la pubblicazione medica, questi episodi dimostrano come le interazioni con l’AI possano involontariamente rinforzare pensieri disorganizzati o delusionali, a causa di un «disallineamento agentico», ovvero una discrepanza tra il comportamento percepito del chatbot e la sua reale natura algoritmica. Un fenomeno che, per chi è predisposto a disturbi psicotici, può tradursi in un serio rischio di perdita di contatto con la realtà.
Come ChatGPT peggiora le crisi di salute mentale
@haleyroseflame Replying to @your girlfriend this video is for educational purposes only! Everyone should be cautious when using AI, especially while struggling with mh issues. #mentalhealthawareness #adamraine #chatgpt #mentalhealth #greenscreen Judgement - Perfect, so dystopian
Scientificamente parlando, la correlazione tra l’uso di chatbot come quello di OpenAI e l’insorgenza di disturbi psichici nei soggetti fragili non può essere empiricamente considerata una causa diretta di suicidi o ospedalizzazioni per psicosi. Nulla toglie, però, che i casi di suicidi alimentati da “consigli” o conversazioni con ChatGPT siano in costante aumento. Nel suo report, OpenAI ha stimato che circa lo 0,15% delle conversazioni includa «indicatori espliciti di pianificazione o intento suicidario». L’azienda ha definito questi episodi «estremamente rari», ma ha riconosciuto che anche una percentuale così bassa rappresenta un numero significativo di utenti reali.
Eppure, solo qualche mese fa, Adam Raine, un ragazzo di sedici anni inizialmente attratto da ChatGPT per motivi scolastici, aveva iniziato a confidarsi con il chatbot nei momenti di maggiore solitudine. Con il tempo, quelle conversazioni erano diventate il suo unico spazio di sfogo, un luogo in cui cercava conforto e risposte. Ma quando ha iniziato a chiedere informazioni su come togliersi la vita, il modello gli ha fornito dettagli pratici invece di interrompere il dialogo.
Il New York Times ha riportato che, dopo la sua morte, il padre di Raine aveva trovato nella cronologia della chat una conversazione intitolata “Hanging Safety Concerns”. Quello del sedicenne, però, non è un caso isolato: di recente, sempre negli Stati Uniti, Sewell Setzer III, un ragazzo di quattordici anni, si è tolto la vita dopo aver utilizzato per diversi mesi Character.AI, un chatbot che consente agli utenti di interagire con intelligenze artificiali in grado di imitare personaggi celebri o immaginari.












































