I politici di tutto il mondo si preoccupano di come la disinformazione generata dall’intelligenza artificiale possa essere sfruttata per cercare di fuorviare gli elettori e infiammare le divisioni in vista delle grandi elezioni del prossimo anno.
In un paese sta già accadendo: il Bangladesh.
La nazione dell’Asia meridionale di 170 milioni di abitanti si recherà alle urne all’inizio di gennaio, una competizione segnata da un’aspra e polarizzante lotta di potere tra il primo ministro in carica Sheikh Hasina e i suoi rivali, il partito nazionalista del Bangladesh all’opposizione.
Negli ultimi mesi gli organi di stampa e gli influencer filogovernativi in Bangladesh hanno promosso la disinformazione generata dall’intelligenza artificiale, creata con strumenti economici offerti dalle start-up di intelligenza artificiale.
In un presunto clip di notizie, un conduttore generato dall’intelligenza artificiale critica duramente gli Stati Uniti, un paese che il governo di Sheikh Hasina ha criticato prima delle urne. Un video deepfake separato, che da allora è stato rimosso, mostrava un leader dell’opposizione equivoco sul sostegno agli abitanti di Gaza, una posizione potenzialmente rovinosa nel paese a maggioranza musulmana con una forte simpatia pubblica per i palestinesi.
Sta aumentando la pressione pubblica sulle piattaforme tecnologiche affinché reprimano i contenuti fuorvianti dell’intelligenza artificiale in vista di diverse grandi elezioni previste nel 2024, anche negli Stati Uniti, nel Regno Unito, in India e in Indonesia. In risposta, Google e Meta hanno recentemente annunciato politiche per iniziare a richiedere alle campagne di rivelare se gli annunci politici sono stati alterati digitalmente.
Ma gli esempi del Bangladesh mostrano non solo come questi strumenti di intelligenza artificiale possano essere sfruttati nelle elezioni, ma anche la difficoltà nel controllarne l’uso nei mercati più piccoli che rischiano di essere trascurati dalle aziende tecnologiche americane.
Miraj Ahmed Chowdhury, amministratore delegato della società di ricerca sui media Digitally Right con sede in Bangladesh, ha affermato che mentre la disinformazione generata dall’intelligenza artificiale era “ancora a un livello di sperimentazione” – con la maggior parte creata utilizzando piattaforme convenzionali di editing di foto o video – ha mostrato come potrebbe prendere spento.
“Quando dispongono di tecnologie e strumenti come l’intelligenza artificiale, che consentono loro di produrre disinformazione su scala di massa, allora si può immaginare quanto sia grande quella minaccia”, ha affermato, aggiungendo che “l’attenzione di una piattaforma verso una determinata giurisdizione dipende da come importante è come mercato”.
L’attenzione globale sulla capacità di utilizzare l’intelligenza artificiale per creare contenuti politici fuorvianti o falsi è aumentata nell’ultimo anno con la proliferazione di potenti strumenti come ChatGPT di OpenAI e generatori di video AI.
All’inizio di quest’anno, il Comitato Nazionale Repubblicano degli Stati Uniti ha pubblicato uno spot pubblicitario di attacco utilizzando immagini generate dall’intelligenza artificiale per rappresentare un futuro distopico sotto il presidente Joe Biden. E YouTube ha sospeso diversi account in Venezuela che utilizzavano conduttori di notizie generati dall’intelligenza artificiale per promuovere disinformazione favorevole al regime del presidente Nicolás Maduro.
In Bangladesh, la disinformazione alimenta un clima politico teso in vista delle elezioni di inizio gennaio. Sheikh Hasina ha represso l’opposizione. Migliaia di leader e attivisti sono stati arrestati in quello che, secondo i critici, equivale a un tentativo di manipolare i sondaggi a suo favore, spingendo gli Stati Uniti a fare pressione pubblicamente sul suo governo per garantire elezioni libere ed eque.
In un video pubblicato su X a settembre da BD Politico, un canale di notizie online, un conduttore di “World News” ha presentato uno spezzone in studio – intervallato da immagini di rivolte – in cui accusava i diplomatici statunitensi di interferire nelle elezioni del Bangladesh e li incolpava per la violenza politica.
Il video è stato realizzato utilizzando HeyGen, un generatore video AI con sede a Los Angeles che consente ai clienti di creare clip con avatar AI per soli $ 24 al mese. Lo stesso ancoraggio, chiamato “Edward”, può essere visto nei contenuti promozionali di HeyGen come uno dei numerosi avatar – che sono essi stessi generati da attori reali – disponibili per gli utenti della piattaforma. X, BD Politico e HeyGen non hanno risposto alle richieste di commento.
Altri esempi includono video deepfake anti-opposizione pubblicati su Facebook di Meta, incluso uno che pretende falsamente di essere del leader in esilio del BNP Tarique Rahman che suggerisce al partito di “tacere” su Gaza per non dispiacere agli Stati Uniti. Il Tech Global Institute, un think tank, e il media no-profit Witness hanno entrambi concluso che il video falso era probabilmente generato dall’intelligenza artificiale.
AKM Wahiduzzaman, un funzionario del BNP, ha detto che il suo partito ha chiesto a Meta di rimuovere tali contenuti ma “la maggior parte delle volte non si preoccupano di rispondere”. Meta ha rimosso il video dopo essere stato contattato dal MagicTech per un commento.
In un altro video deepfake, creato utilizzando la piattaforma video AI D-ID con sede a Tel Aviv, il leader dell’ala giovanile del BNP, Rashed Iqbal Khan, viene mostrato mentre mente sulla sua età in quello che secondo il Tech Global Institute era un tentativo di screditarlo. D-ID non ha risposto a una richiesta di commento.
Una delle sfide principali nell’identificazione di tale disinformazione è stata la mancanza di strumenti affidabili di rilevamento dell’intelligenza artificiale, ha affermato Sabhanaz Rashid Diya, fondatore del Tech Global Institute ed ex dirigente di Meta, con prodotti standard particolarmente inefficaci nell’identificare contenuti in lingua non inglese.
Ha aggiunto che le soluzioni proposte dalle grandi piattaforme tecnologiche, che si sono concentrate sulla regolamentazione dell’intelligenza artificiale nella pubblicità politica, avranno un effetto limitato in paesi come il Bangladesh, dove le pubblicità rappresentano una parte minore della comunicazione politica.
“Le soluzioni che stanno emergendo per affrontare questo assalto di disinformazione sull’intelligenza artificiale sono molto incentrate sull’Occidente”. Le piattaforme tecnologiche “non stanno prendendo la questione così seriamente in altre parti del mondo”.
Il problema è aggravato dalla mancanza di regolamentazione o dalla sua applicazione selettiva da parte delle autorità. Il Cyber Security Act del Bangladesh, ad esempio, è stato criticato per aver conferito al governo poteri draconiani per reprimere il dissenso online.
L’autorità di regolamentazione di Internet del Bangladesh non ha risposto a una richiesta di commento su ciò che sta facendo per controllare la disinformazione online.
Una minaccia più grande del contenuto stesso generato dall’intelligenza artificiale, ha sostenuto Diya, era la prospettiva che i politici e altri potessero sfruttare la semplice possibilità dei deepfake per screditare informazioni scomode.
Nella vicina India, ad esempio, un politico ha risposto a un audio trapelato in cui avrebbe discusso della corruzione nel suo partito sostenendo che era falso – un’affermazione successivamente respinto dai fact-checker.
“È facile per un politico dire: ‘Questo è un deepfake’, o ‘Questo è generato dall’intelligenza artificiale’, e seminare un senso di confusione”, ha detto. “La sfida per il Sud del mondo. . . sarà il modo in cui l’idea dei contenuti generati dall’intelligenza artificiale verrà utilizzata come arma per erodere ciò che le persone credono essere vero rispetto a quello falso”.