Lun. Gen 13th, 2025
A hand posts a vote card in a ballot box against a background of a statistical line graph

Sblocca gratuitamente il Digest dell'editore

Più o meno in questo periodo dell'anno scorso, probabilmente avete letto dozzine di terribili avvertimenti sull'impatto dell'intelligenza artificiale generativa sul raccolto eccezionale delle elezioni globali del 2024.

I deepfake avrebbero potenziato la disinformazione politica, lasciando gli elettori confusi incapaci di distinguere i fatti dalla finzione in un mare di bugie realistiche e personalizzate, si diceva. I leader, da Sadiq Khan al Papa, si sono espressi contro di loro. Un sondaggio condotto tra gli esperti del World Economic Forum ha classificato la disinformazione basata sull’intelligenza artificiale come il secondo rischio più urgente del 2024.

Come previsto, sono stati ampiamente riportati dozzine di esempi. La “voce” di Joe Biden sulle chiamate robotiche ha esortato gli elettori delle primarie a restare a casa; I video generati dall'intelligenza artificiale di membri inesistenti della famiglia di Marine Le Pen che facevano battute razziste sono stati visti milioni di volte su TikTok mentre un clip audio falsa di Sir Keir Starmer che impreca contro un membro dello staff è diventato virale su X.

Ma molti esperti ora credono che ci siano poche prove che la disinformazione sull’IA sia stata così diffusa o di impatto come si temeva.

L'Istituto Alan Turing identificato solo 27 contenuti virali generati dall'intelligenza artificiale durante le elezioni estive nel Regno Unito, in Francia e nell'UE messe insieme. Solo circa un britannico su 20 ha riconosciuto uno dei deepfake politici più ampiamente condivisi riguardanti le elezioni, uno studio separato trovato.

Negli Stati Uniti, il News Literacy Project catalogato quasi 1.000 esempi di disinformazione sulle elezioni presidenziali. Solo il 6% ha coinvolto l’intelligenza artificiale generativa. Secondo TikTok, le rimozioni di contenuti generati dall’intelligenza artificiale non sono aumentate con l’avvicinarsi del giorno delle votazioni.

Menzioni di termini come “deepfake” o “generato dall'intelligenza artificiale” nel sistema di verifica dei fatti inviato dagli utenti di X, Community Notes, erano più correlate al rilascio di nuovi modelli di generazione di immagini rispetto alle elezioni principali, ha rilevato un'analisi del MagicTech.

La tendenza si è mantenuta anche nei paesi non occidentali: uno studio ha rilevato che solo il 2% della disinformazione sulle elezioni di gennaio in Bangladesh era costituita da deepfake. Le elezioni polarizzate del Sud Africa sono state “segnate da un’inaspettata mancanza” di intelligenza artificiale, hanno concluso i ricercatori.

Microsoft, Meta E OpenAI tutti hanno riferito di aver scoperto operazioni straniere segrete che tentavano di utilizzare l’intelligenza artificiale per influenzare le elezioni quest’anno, ma nessuno è riuscito a trovare un vasto pubblico.

Gran parte dei contenuti di intelligenza artificiale legati alle elezioni che hanno preso piede non erano destinati a ingannare gli elettori. Invece, la tecnologia veniva spesso utilizzata per discussioni emotive, creando immagini che sembravano supportare una certa narrativa, anche se erano chiaramente irreali.

Kamala Harris parla a una manifestazione addobbato con bandiere sovieticheper esempio, o un bambino italiano che mangia a pizza ricoperta di scarafaggi (in riferimento al presunto sostegno dell'UE alle diete degli insetti). I politici deceduti sono stati “resuscitati” per sostenere le campagne in Indonesia e India.

Tali “messaggi simbolici, espressivi o satirici” sono in linea con le tradizionali tattiche di persuasione e propaganda, secondo Daniel Schiff, esperto di politica ed etica dell’IA presso la Purdue University. Circa il 40% dei deepfake politici identificati da un team della Purdue erano almeno in parte intesi come satira o intrattenimento.

Che dire del “dividendo del bugiardo”? Questa è l'idea che le persone affermino che i contenuti legittimi che li mostrano in cattiva luce sono generati dall'intelligenza artificiale, lasciando potenzialmente gli elettori con la sensazione che non si possa più credere a nulla.

Un Istituto per il dialogo strategico analisi hanno riscontrato una diffusa confusione sui contenuti politici sui social media, con gli utenti che spesso identificano erroneamente le immagini reali come generate dall’intelligenza artificiale. Ma la maggior parte è in grado di applicare un sano scetticismo a tali affermazioni. Secondo Pew Research, la percentuale di elettori statunitensi che hanno affermato che è difficile capire quali siano le notizie vere sui candidati è diminuita tra le elezioni del 2020 e del 2024.

“Abbiamo Photoshop da anni e ci fidiamo ancora in gran parte delle foto”, afferma Felix Simon, ricercatore presso il Reuters Institute for the Study of Journalism dell'Università di Oxford, che ha scritto di quanto i timori dei deepfake siano esagerati.

Naturalmente non possiamo abbassare la guardia. La tecnologia dell’intelligenza artificiale e il suo impatto sociale stanno avanzando rapidamente. I deepfake si stanno già rivelando uno strumento pericoloso in altri scenari, come elaborate truffe di furto d’identità o molestie ed estorsioni pornografiche.

Ma quando si parla di disinformazione politica, la vera sfida non è cambiata: affrontare in primo luogo le ragioni per cui le persone sono disposte a credere e condividere le falsità, dalla polarizzazione politica alle diete mediatiche alimentate da TikTok. Sebbene la minaccia dei deepfake possa occupare i titoli dei giornali, non dovremmo lasciare che diventi una distrazione.

[email protected]