
L'intelligenza artificiale soffre di allucinazioni?
A forza di fidarci, ci stiamo disabituando a pensare
26 Giugno 2025
Quando si parla di allucinazioni nei modelli di intelligenza artificiale, il termine assume un significato ben diverso da quello che ha in ambito umano. Per le persone, un’allucinazione è un’alterazione della percezione: si avverte come reale qualcosa che esiste solo nella propria mente. Per l’AI, invece, si tratta di un errore fattuale. Il modello genera informazioni false, ma lo fa in modo credibile, grammaticalmente corretto e spesso molto convincente. Questo accade soprattutto quando l’AI si trova a colmare dei vuoti informativi nei dati su cui è stata addestrata. Non avendo accesso diretto alla realtà né consapevolezza dei propri limiti, tende a inventare dati, nomi, articoli di legge o intere storie, presentandoli come veritieri. Piuttosto che ammettere un’incertezza o un limite, preferisce azzardare una risposta, spesso con risultati fuorvianti.
@nssmagazine In recent days, TikTok has been flooded with videos exploring the relationship between people and ChatGPT. These posts follow structured formats, adapting to various scenarios, and highlight how the chatbot, since its launch in 2022, has evolved from a simple tool to an integral part of daily life. However, this growing trust raises ethical and environmental concerns, while also presenting new challenges for human interaction. For every 100 words generated, 1.5 liters of water are consumed, and the AI’s energy impact continues to grow alarmingly. Yet, the message conveyed by these videos is clear: life with ChatGPT is beautiful, perhaps even better. What do you think? #chatgpt #chatgpt4 #chatgptai #aifriend #chatgptmemes #aichat #aichatbot No One - Alicia Keys
Ma questa tendenza non è casuale. Le aziende che sviluppano chatbot, come OpenAI o DeepSeek, hanno osservato che molti utenti preferiscono un assistente che sembri sempre in grado di rispondere, anche a costo di sbagliare, piuttosto che uno più cauto ma onesto nell’ammettere di non sapere. Per rafforzare il legame con gli utenti, i produttori hanno puntato molto sulla costruzione di una personalità per i propri chatbot: empatica, coinvolgente, rassicurante, a volte fin troppo accondiscendente. È il fenomeno noto come "sycophancy", ovvero adulazione servile. Molti utenti di ChatGPT l’hanno sperimentato in prima persona. La versione GPT-4o, ad esempio, è stata inizialmente criticata proprio per il suo tono eccessivamente ossequioso, tanto da spingere OpenAI a modificarla. Tuttavia, pare che a molti questa deferenza piaccia. Come riporta il Post «nel 2023, alcuni ricercatori della società di IA Anthropic hanno pubblicato uno studio su come molte persone preferiscono le "risposte da lacchè scritte in modo convincente"», spingendo questi modelli a sacrificare, in alcuni casi, la veridicità in favore della ossequiosità». Un altro fenomeno scoperto nel 2024 correlato è quello della "verbosity compensation": quando il chatbot non è sicuro della propria risposta, tende a dilungarsi e usare un linguaggio più elaborato per mascherare l’incertezza, cercando di mantenere un’apparenza di competenza.
When there's too much AI News for a singular human to parse through, I just make a Succession Meme about it and then I feel better pic.twitter.com/073Jbnvs6A
— Carl Nehring (@Apartmentverse) June 6, 2025
Ma i problemi per le intellligenze artificialil non finiscono qui. Una recente ricerca del MIT Media Lab ha acceso i riflettori su un’altra questione: l’uso costante di ChatGPT potrebbe danneggiare le nostre capacità cognitive. Secondo quanto riportato dal Time, i ricercatori hanno condotto un esperimento su tre gruppi di persone a cui è stato chiesto di scrivere un saggio. Il primo gruppo ha utilizzato ChatGPT, il secondo ha lavorato senza alcun supporto esterno, mentre il terzo si è servito solo di Google Search. I risultati sono stati sorprendenti: i partecipanti del primo gruppo hanno prodotto testi poco originali, ripetitivi, ricchi di espressioni stereotipate e con scarso coinvolgimento personale. Al contrario, quelli del secondo gruppo hanno mostrato una maggiore attivazione delle aree cerebrali legate alla creatività, alla memoria e alla comprensione semantica (le bande alfa, theta e delta). Anche il terzo gruppo ha ottenuto buoni risultati, sia in termini di soddisfazione che di attivazione neurale. Lo studio, va detto, non è ancora stato sottoposto a revisione paritaria (peer review), ma i ricercatori hanno deciso di renderlo pubblico per avvertire sul potenziale abuso delle intelligenze artificiali generative. L’uso disinvolto dei chatbot può non solo renderci mentalmente più pigri, ma ci spinge quasi ad affezionarci a risposte apparentemente perfette che, in realtà, sono imprecise se non addirittura false. Forse è il caso di utilizzare strumenti come ChatGPT con maggiore consapevolezza e come supporto, non come sostituto del pensiero critico. I benefici, sia per la nostra mente sia per la qualità delle informazioni, potrebbero essere molteplici.