Mar. Giu 18th, 2024
Le reti collegate a Russia e Cina utilizzano gli strumenti OpenAI per diffondere disinformazione

Rimani informato con aggiornamenti gratuiti

OpenAI ha rivelato che operazioni legate a Russia, Cina, Iran e Israele hanno utilizzato i suoi strumenti di intelligenza artificiale per creare e diffondere disinformazione, poiché la tecnologia diventa un’arma potente nella guerra dell’informazione in un anno ricco di elezioni.

Giovedì, il produttore del chatbot ChatGPT, con sede a San Francisco, ha dichiarato in un rapporto che cinque operazioni di influenza segrete hanno utilizzato i suoi modelli di intelligenza artificiale per generare testo e immagini ad alto volume, con meno errori linguistici rispetto al passato, nonché per generare commenti o risposte ai propri post. Le politiche di OpenAI vietano l'uso dei suoi modelli per ingannare o fuorviare gli altri.

Il contenuto si concentrava su questioni “tra cui l'invasione russa dell'Ucraina, il conflitto a Gaza, le elezioni indiane, la politica in Europa e negli Stati Uniti e le critiche al governo cinese da parte di dissidenti cinesi e governi stranieri”, afferma OpenAI nel rapporto.

Le reti hanno utilizzato l’intelligenza artificiale anche per migliorare la propria produttività, applicandola a compiti come il debug del codice o la ricerca sull’attività pubblica dei social media.

Le piattaforme di social media, tra cui Meta e YouTube di Google, hanno cercato di reprimere la proliferazione di campagne di disinformazione sulla scia della vittoria di Donald Trump alle elezioni presidenziali americane del 2016, quando gli investigatori hanno trovato prove che un allevamento di troll russo aveva cercato di manipolare il voto.

La pressione sta aumentando sulle aziende di intelligenza artificiale in rapida crescita come OpenAI, poiché i rapidi progressi nella loro tecnologia significano che è più economico e più facile che mai per gli autori di disinformazione creare deepfake realistici e manipolare i media e quindi diffondere tali contenuti in modo automatizzato.

Mentre circa 2 miliardi di persone si recano alle urne quest’anno, i politici hanno esortato le aziende a introdurre e applicare barriere di protezione adeguate.

Ben Nimmo, ricercatore principale per l'intelligence e le indagini presso OpenAI, ha affermato in una chiamata con i giornalisti che le campagne non sembrano aver aumentato “significativamente” il loro coinvolgimento o la portata come risultato dell'utilizzo dei modelli di OpenAI.

Ma, ha aggiunto, “questo non è il momento di compiacersi. La storia dimostra che operazioni di influenza che hanno trascorso anni senza riuscire ad arrivare a nulla possono improvvisamente scoppiare se nessuno le cerca”.

OpenAI, sostenuta da Microsoft, ha dichiarato di essere impegnata a scoprire tali campagne di disinformazione e di stare costruendo i propri strumenti basati sull’intelligenza artificiale per rendere il rilevamento e l’analisi “più efficaci”. Ha aggiunto che i suoi sistemi di sicurezza hanno già reso difficile l’intervento degli autori del reato, con i suoi modelli che si sono rifiutati in più casi di generare il testo o le immagini richieste.

Nel rapporto, OpenAI ha rivelato che diversi noti attori della disinformazione affiliati allo stato avevano utilizzato i suoi strumenti. Queste includevano un’operazione russa, Doppelganger, scoperta per la prima volta nel 2022 e che in genere tenta di minare il sostegno all’Ucraina, e una rete cinese nota come Spamouflage, che spinge gli interessi di Pechino all’estero. Entrambe le campagne hanno utilizzato i propri modelli per generare testo o commenti in più lingue prima di pubblicarli su piattaforme come X di Elon Musk.

Ha segnalato un’operazione russa precedentemente non segnalata, denominata Bad Grammar, affermando di aver utilizzato modelli OpenAI per eseguire il debug del codice per l’esecuzione di un bot Telegram e per creare brevi commenti politici in russo e inglese che sono stati poi pubblicati sulla piattaforma di messaggistica Telegram.

X e Telegram sono stati contattati per un commento.

Ha anche affermato di aver contrastato un’iniziativa di disinformazione a pagamento pro-Israele, presumibilmente gestita da un’azienda di gestione di campagne politiche con sede a Tel Aviv chiamata STOIC, che ha utilizzato i suoi modelli per generare articoli e commenti su X e su Instagram e Facebook di Meta.

Meta mercoledì ha pubblicato un rapporto in cui afferma di aver rimosso il contenuto STOIC. Gli account collegati a queste operazioni sono stati chiusi da OpenAI.