Per piacere, non chiedete ai chatbot cosa votare Se ne riparla in occasione delle consultazioni sulla riforma della giustizia in Italia

Da tempo si discute del rischio che gli strumenti di intelligenza artificiale, tra cui il più diffuso ChatGPT, vista la loro sempre maggiore rilevanza, possano essere utilizzati per influenzare – più o meno indirettamente – le preferenze di voto dei cittadini in occasione di eventi elettorali. Il tema è tornato d'attualità in Italia in relazione all'importante e combattuto referendum costituzionale sulla riforma della magistratura – chiamata genericamente “riforma della giustizia” – previsto per il 22 e 23 marzo.

Se alle prossime consultazioni italiane vincerà il “Sì”, come si augura il centrodestra, il governo-Meloni diventerà ancora più forte e compatto, mentre se prevarrà il “No” questo vantaggio passerà ai partiti di opposizione. Inoltre, il referendum non avrà bisogno del quorum: il risultato, insomma, sarà valido a prescindere dal numero di cittadini che andranno a votare – cosa che rende l'evento ancor più rilevante.

In questo contesto, i chatbot possono sembrare strumenti di persuasione tutto sommato marginali, eppure diversi studi effettuati su alcune campagne elettorali indicano che il loro impatto può essere potenzialmente significativo, soprattutto su larga scala e in scenari di forte equilibrio tra gli schieramenti politici. Due ricerche pubblicate su Nature Science, tra le più autorevoli riviste accademiche attive a livello internazionale, mostrano che la capacità di influenza attribuita ai chatbot può risultare circa quattro volte superiore rispetto a quella degli spot elettorali o delle inserzioni sui social network.

Gli elettori si fanno realmente influenzare dai chatbot?

In occasione delle elezioni presidenziali statunitensi del 2024, un gruppo di ricercatori condusse un esperimento coinvolgendo oltre duemila elettori, suddivisi in modo pressoché equilibrato tra sostenitori di Trump e di Kamala Harris. A ciascun partecipante venne richiesto di discutere di politica con un chatbot addestrato appositamente per sostenere il candidato repubblicano o quello democratico. Al termine della conversazione, agli elettori venne data la possibilità di esprimere la propria preferenza: i risultati mostrarono che quando il chatbot era allineato alle convinzioni politiche dell’interlocutore l’interazione avuta tendeva a rafforzare quelle stesse convinzioni – e viceversa.

Per verificare le conclusioni dello studio, lo stesso gruppo di ricerca l’anno successivo condusse il medesimo esperimento anche in Canada e in Polonia – in entrambi i casi poco prima di un evento elettorale. L’effetto di persuasione riscontrato nei due Paesi fu ancora più marcato rispetto a quello registrato dodici mesi prima negli Stati Uniti: circa un partecipante su dieci dichiarò infatti di aver cambiato la propria idea di voto dopo l’interazione con il chatbot. Sebbene non sia scontato che effetti simili si manifesterebbero in una vera tornata elettorale, dove le preferenze degli elettori sono condizionate da molteplici variabili, spesso incontrollabili, numerosi esperti guardano alla possibile relazione tra AI ed elezioni politiche con crescente preoccupazione: i sistemi di intelligenza artificiale, infatti, essendo in parte ancora in fase di sviluppo, non dispongono di regolamentazioni adeguate che ne disciplinino l’uso in ambito politico, garantendo condizioni di piena neutralità.

Perché è sbagliato considerare neutrali le AI

@onlyjayus Asking ChatGPT if they would vote for Kamala Harris or Donald Trump #fyp #2024election #AI #chatgpt #donaldtrump #kamalaharris #learnontiktok #edutok #experiments #onlyjayus original sound - Bella Rose

Una delle preoccupazioni più ricorrenti rispetto alla possibilità che i chatbot possano orientare l’opinione pubblica in occasione di consultazioni politiche è che molte persone tendono a considerare l'AI un'entità neutrale. Numerosi utenti, infatti, non sono realmente consapevoli che i chatbot possono incorporare bias, pregiudizi e scelte interpretative provenienti da chi li progetta e ne definisce il funzionamento. Inoltre, va precisato che gli strumenti di intelligenza artificiale non sempre veicolano verità oggettive: le informazioni che generano derivano infatti da modelli addestrati su enormi quantità di dati, nei quali sono inevitabilmente incorporati interpretazioni e convinzioni preesistenti – o in qualche modo per loro stessa natura "di parte".

I software di intelligenza artificiale sono spesso descritti dagli esperti come strumenti che non “comprendono” realmente il contenuto che generano, essendo basati su modelli linguistici che combinano parole secondo schemi statistici. Inoltre, raramente un chatbot ammette di non conoscere qualcosa: nella maggior parte dei casi, quando è a corto di informazioni, tende a inventare. Tuttavia, con un numero crescente di persone che ogni giorno rivolge domande a tool come ChatGPT o Gemini, tra i tanti, le risposte di questi sistemi finiscono per incorporare una porzione sempre più ampia delle informazioni che circolano online e offline, e che per molti utenti assumono così il valore di “verità” assoluta.

A questo si aggiunge un fattore da non trascurare, ovvero che l'estrema facilità d’uso dei chatbot contribuisce ad aumentare la loro influenza sulle persone. Le riflessioni sugli impatti dei sistemi di AI sull’organizzazione del sapere e sull’accesso alle informazioni non sono una novità: già anni fa, di fronte all'ascesa dei motori di ricerca, si parlava dei rischi legati all'eccessiva selezione a monte delle informazioni. I chatbot, tuttavia, per molti versi, amplificano questi stessi rischi, agendo di fatto come filtro aggiuntivo – tanto che la consultazione delle diverse fonti viene definitivamente a meno. Nonostante la comodità, questo può avere conseguenze rilevanti, soprattutto in contesti elettorali dove la comprensione approfondita e critica delle posizioni dei diversi schieramenti risulta essenziale.