
ChatGPT Health vuole diventare il vostro medico in famiglia I sistemi di AI che ambiscono a operare in ambito sanitario sono sempre di più, ma c'è un ma
Di recente OpenAI ha annunciato il lancio di ChatGPT Health, una sezione del suo celebre chatbot pensata per aiutare le persone a capire meglio e a organizzare in modo più chiaro la propria “storia clinica”. Il progetto nasce dal fatto che sempre più utenti si rivolgono a ChatGPT per interpretare referti, sintomi e altri dati clinici. L’obiettivo della società di Sam Altman è offrire uno strumento che aiuti a riunire e dare senso a queste informazioni, rendendo potenzialmente più semplice orientarsi all’interno di un eventuale percorso di cura.
ChatGPT Health offre ad esempio la possibilità di scegliere di collegare al sistema le proprie cartelle cliniche elettroniche e certe app dedicate alle salute, in modo da mettere a confronto dati e risultati degli esami e interpretarli nel tempo. OpenAI ha però chiarito che il servizio non farà diagnosi né suggerirà terapie: il suo scopo è piuttosto quello di aiutare a orientarsi tra informazioni specifiche, chiarire dubbi e affrontare i colloqui con i medici in modo più consapevole.
Il progetto – precisa l’azienda in una nota – è stato sviluppato avvalendosi del contributo di numerosi medici, provenienti da diverse specialità, con l’obiettivo di offrire risposte comprensibili, caute e adeguate al contesto. L’accesso iniziale al servizio sarà limitato a un gruppo ristretto di utenti, ma in futuro è previsto che venga progressivamente esteso. Gli scambi conversazionali a tema salute si svolgeranno in uno spazio a sé stante rispetto alla tradizionale interfaccia di ChatGPT, e secondo quanto sostiene OpenAI sono state previste protezioni specifiche per tutelare i dati sensibili – per esempio, le informazioni sanitarie non verrebbero utilizzate per l’addestramento dei modelli linguistici alla base dei sistemi di AI.
Cosa non convince delle AI sulla salute
ChatGPT Health. pic.twitter.com/lJCa3N9yni
— AshutoshShrivastava (@ai_for_success) January 8, 2026
Lo scorso anno diversi media specializzati in tecnologia e salute avevano riportato il caso di sistema di intelligenza artificiale (sviluppato da Google) che, analizzando le immagini di una TAC cerebrale, si era “inventato” una struttura anatomica del cervello di per sé inesistente, producendo di conseguenza un referto del tutto errato. L’episodio è diventato emblematico dei limiti di queste tecnologie: pur mostrando grandi potenzialità in ambito sanitario, i sistemi di intelligenza artificiale possono generare risultati fuorvianti se non sono utilizzati con adeguata cautela e supervisione umana.
Tuttavia, le principali aziende che sviluppano sistemi di intelligenza artificiale – da OpenAI alla stessa Google – sostengono da tempo che queste tecnologie potranno, in futuro, affiancare i medici nel rendere le diagnosi più precise e affidabili. Intorno a questa possibilità, però, una parte significativa della comunità scientifica è scettica, sottolineando i limiti attuali delle AI e i rischi legati a un loro impiego prematuro o non adeguatamente controllato.
Perché ChatGPT Health e simili non piacciono ai medici
@doctordevify ChatGPT Health just got announced #health #medicine #ai #fyp #doctor original sound - Dr Dev | Doctor Devify
In passato alcuni sistemi di analisi delle immagini basati sull’intelligenza artificiale hanno ottenuto risultati notevoli, individuando dettagli che erano sfuggiti agli specialisti. Non sempre, però, il loro funzionamento è affidabile: le AI possono infatti avere “allucinazioni”, cioè produrre interpretazioni errate o poco fondate, con il rischio di valutazioni imprecise.
Le grandi aziende tecnologiche che sviluppano i modelli più noti, come ChatGPT e Gemini, sottolineano che questi strumenti devono essere considerati un supporto per i medici, e non un loro sostituto. La responsabilità finale, sia per le diagnosi sia per le terapie, dovrebbe quindi restare sempre in capo ai professionisti sanitari. Gli sviluppatori, a tal proposito, sottolineano i rapidi miglioramenti ottenuti in pochi anni in termini di accuratezza, a fronte di un tasso di errore umano che in medicina rimane relativamente costante e che, almeno in parte, potrebbe essere ridotto grazie all’uso dell’AI.
Le potenzialità di sistemi come ChatGPT Health, insomma, ci sono e non mancano esempi promettenti, ma una parte della comunità scientifica continua a invitare a sconsigliare una “corsa all’AI” simile a quella già vista in altri ambiti, chiedendo tempi e criteri di adozione molto più cauti.















































