Rimani informato con aggiornamenti gratuiti
Secondo una ricerca che offre spunti su come affrontare la disinformazione, i teorici della cospirazione che hanno dibattuto con un chatbot dotato di intelligenza artificiale sono diventati più propensi ad ammettere dubbi sulle proprie convinzioni.
Gli scienziati hanno scoperto che questa maggiore apertura mentale si estendeva anche ai devoti più ostinati e persisteva a lungo dopo la fine del dialogo con la macchina.
La ricerca contrasta l'idea secondo cui è praticamente impossibile cambiare idea a chi si è immerso in idee diffuse ma non supportate da prove.
I risultati sono sorprendenti perché suggeriscono un potenziale ruolo positivo dei modelli di intelligenza artificiale nel contrastare la disinformazione, nonostante la loro vulnerabilità alle “allucinazioni” che a volte li inducono a diffondere falsità.
Il lavoro “dipinge un quadro più luminoso della mente umana di quanto molti avrebbero potuto aspettarsi” e dimostra che “il ragionamento e le prove non sono morti”, ha affermato David Rand, uno dei ricercatori del lavoro. pubblicato su Science giovedì.
“Anche molti teorici della cospirazione rispondono a fatti e prove accurate: devi solo affrontare direttamente le loro convinzioni e preoccupazioni specifiche”, ha affermato Rand, professore alla Sloan School of Management del Massachusetts Institute of Technology.
“Sebbene vi siano diffuse legittime preoccupazioni circa il potere dell'intelligenza artificiale generativa di diffondere disinformazione, il nostro documento mostra come possa anche essere parte della soluzione, essendo un educatore altamente efficace”, ha aggiunto.
I ricercatori hanno esaminato se i grandi modelli linguistici di intelligenza artificiale come GPT-4 Turbo di OpenAI potessero usare la loro capacità di accedere e riassumere informazioni per affrontare convinzioni cospirative persistenti. Tra queste, gli attacchi terroristici dell'11 settembre 2001 erano stati messi in scena, le elezioni presidenziali statunitensi del 2020 erano state fraudolente e la pandemia di Covid-19 era stata orchestrata.
Quasi 2.200 partecipanti hanno condiviso idee cospirative con l'LLM, che ha generato prove per contrastare le affermazioni. Questi dialoghi hanno ridotto la convinzione autovalutata della persona nella teoria scelta di una media del 20 percento per almeno due mesi dopo aver parlato con il bot, hanno affermato i ricercatori.
Un fact-checker professionista ha valutato un campione dell'output del modello stesso per verificarne l'accuratezza. La verifica ha rilevato che il 99,2 percento delle affermazioni dell'LLM erano vere e lo 0,8 percento fuorvianti, hanno affermato gli scienziati.
L'approccio personalizzato basato su domande e risposte dello studio è una risposta all'apparente inefficacia di molte strategie esistenti per smentire la disinformazione.
Un'altra complicazione degli sforzi generalizzati per contrastare il pensiero cospirazionista è che le cospirazioni vere e proprie accadono, mentre in altri casi le narrazioni scettiche possono essere molto abbellite ma basate su un fondo di verità.
Una teoria sul perché l'interazione tramite chatbot sembra funzionare bene è che ha accesso immediato a qualsiasi tipo di informazione, cosa che un intervistato umano non può fare.
La macchina si rapportava anche con i suoi interlocutori umani in termini cortesi ed empatici, in contrasto con il disprezzo che a volte riversavano sui teorici della cospirazione nella vita reale.
Tuttavia, altre ricerche hanno suggerito che la modalità di indirizzo della macchina probabilmente non era un fattore importante, ha detto Rand. Lui e i suoi colleghi avevano condotto un esperimento di follow-up in cui l'IA era stata sollecitata a fornire una correzione fattuale “senza le finezze” e ha funzionato altrettanto bene, ha aggiunto.
“La dimensione, la robustezza e la persistenza della riduzione delle credenze cospirative” dello studio hanno suggerito che “un intervento scalabile per ricalibrare le credenze disinformate potrebbe essere a portata di mano”, secondo un commento di accompagnamento pubblicato anche su Science.
Ma tra i possibili limiti rientrano le difficoltà nel rispondere alle nuove teorie del complotto e nel convincere le persone con scarsa fiducia nelle istituzioni scientifiche a interagire con il bot, hanno affermato Bence Bago dell'Università di Tilburg nei Paesi Bassi e Jean-François Bonnefon della Toulouse School of Economics, autori insieme del documento secondario.
“La tecnica di dialogo dell'intelligenza artificiale è così potente perché automatizza la generazione di controprove specifiche e approfondite alle complesse argomentazioni dei sostenitori della cospirazione e quindi potrebbe essere impiegata per fornire informazioni accurate e correttive su larga scala”, hanno affermato Bago e Bonnefon, che non sono stati coinvolti nella ricerca.
“Un limite importante alla realizzazione di questo potenziale risiede nella consegna”, hanno aggiunto. “In particolare, come far sì che gli individui con convinzioni cospirative radicate si impegnino con un programma di intelligenza artificiale adeguatamente addestrato per cominciare”.