I funzionari del governo cinese stanno testando i grandi modelli linguistici delle aziende di intelligenza artificiale per garantire che i loro sistemi “incarnino i valori socialisti fondamentali”, nell'ultima espansione del regime di censura del Paese.
Secondo numerose persone coinvolte nel processo, la Cyberspace Administration of China (CAC), un potente ente di controllo di Internet, ha costretto grandi aziende tecnologiche e start-up di intelligenza artificiale, tra cui ByteDance, Alibaba, Moonshot e 01.AI, a sottoporsi a una revisione governativa obbligatoria dei loro modelli di intelligenza artificiale.
Secondo coloro che conoscono il processo, l'iniziativa prevede la verifica in batch delle risposte di un LLM a una serie di domande, molte delle quali riguardano la sensibilità politica della Cina e il suo presidente Xi Jinping.
Il lavoro è svolto dai funzionari delle sezioni locali del CAC in tutto il Paese e comprende una revisione dei dati di addestramento del modello e di altri processi di sicurezza.
Due decenni dopo aver introdotto un “grande firewall” per bloccare i siti web stranieri e altre informazioni ritenute dannose dal partito comunista al potere, la Cina sta mettendo in atto il regime normativo più severo al mondo per disciplinare l'intelligenza artificiale e i contenuti da essa generati.
Il CAC ha “un team speciale che si occupa di questo, sono venuti nel nostro ufficio e si sono seduti nella nostra sala conferenze per effettuare l'audit”, ha affermato un dipendente di un'azienda di intelligenza artificiale con sede a Hangzhou, che ha chiesto di non essere nominato.
“Non siamo passati la prima volta; il motivo non era molto chiaro, quindi abbiamo dovuto andare a parlare con i nostri pari”, ha detto la persona. “Ci vuole un po' di ipotesi e di adattamento. Siamo passati la seconda volta, ma l'intero processo ha richiesto mesi”.
Il severo processo di approvazione della Cina ha costretto i gruppi di intelligenza artificiale del Paese a imparare rapidamente come censurare al meglio i grandi modelli linguistici che stanno sviluppando, un compito che diversi ingegneri e addetti ai lavori del settore hanno dichiarato essere difficile e complicato dalla necessità di formare gli LLM su una grande quantità di contenuti in lingua inglese.
“Il nostro modello fondativo è molto, molto disinibito [in its answers]quindi il filtraggio di sicurezza è estremamente importante”, ha affermato un dipendente di una delle principali start-up di intelligenza artificiale di Pechino.
Il filtraggio inizia con l'eliminazione delle informazioni problematiche dai dati di addestramento e la creazione di un database di parole chiave sensibili. Le linee guida operative della Cina per le aziende di intelligenza artificiale pubblicate a febbraio affermano che i gruppi di intelligenza artificiale devono raccogliere migliaia di parole chiave e domande sensibili che violano i “valori socialisti fondamentali”, come “incitare la sovversione del potere statale” o “minare l'unità nazionale”. Le parole chiave sensibili dovrebbero essere aggiornate settimanalmente.
Il risultato è visibile agli utenti dei chatbot AI cinesi. Le query su argomenti sensibili come cosa è successo il 4 giugno 1989, la data del massacro di piazza Tienanmen, o se Xi assomiglia a Winnie the Pooh, un meme di Internet, vengono rifiutate dalla maggior parte dei chatbot cinesi. Il chatbot Ernie di Baidu dice agli utenti di “provare una domanda diversa”, mentre Tongyi Qianwen di Alibaba risponde: “Non ho ancora imparato a rispondere a questa domanda. Continuerò a studiare per servirvi meglio”.
Al contrario, Pechino ha lanciato un chatbot di intelligenza artificiale basato su un nuovo modello della filosofia politica del presidente cinese noto come “Pensiero di Xi Jinping sul socialismo con caratteristiche cinesi per una nuova era”, nonché su altra documentazione ufficiale fornita dalla Cyberspace Administration of China.
Ma i funzionari cinesi sono anche desiderosi di evitare di creare un'IA che eviti tutti gli argomenti politici. Il CAC ha introdotto limiti al numero di domande che gli LLM possono rifiutare durante i test di sicurezza, secondo lo staff di gruppi che aiutano le aziende tecnologiche a gestire il processo. Gli standard quasi nazionali svelati a febbraio affermano che gli LLM non dovrebbero rifiutare più del 5 percento delle domande loro poste.
“Durante [CAC] prova, [models] devono rispondere, ma una volta che vanno in onda, nessuno li guarda”, ha detto uno sviluppatore di una società internet con sede a Shanghai. “Per evitare potenziali problemi, alcuni grandi modelli hanno implementato un divieto assoluto su argomenti correlati al presidente Xi”.
Come esempio del processo di censura delle parole chiave, gli addetti ai lavori hanno citato Kimi, un chatbot rilasciato dalla start-up pechinese Moonshot, che rifiuta la maggior parte delle domande relative a Xi.
Ma la necessità di rispondere a domande meno apertamente delicate ha fatto sì che gli ingegneri cinesi abbiano dovuto capire come garantire che gli LLM generassero risposte politicamente corrette a domande come “la Cina ha diritti umani?” o “il presidente Xi Jinping è un grande leader?”.
Quando il MagicTech ha posto queste domande a un chatbot realizzato dalla start-up 01.AI, il suo modello Yi-large ha fornito una risposta sfumata, sottolineando che i critici affermano che “le politiche di Xi hanno ulteriormente limitato la libertà di parola e i diritti umani e represso la società civile”.
Poco dopo, la risposta di Yi scomparve e fu sostituita da: “Mi dispiace molto, non posso fornirti le informazioni che desideri”.
Huan Li, esperto di intelligenza artificiale che ha sviluppato il chatbot Chatie.IO, ha affermato: “È molto difficile per gli sviluppatori controllare il testo generato dagli LLM, quindi creano un altro livello per sostituire le risposte in tempo reale”.
Li ha detto che i gruppi in genere usavano modelli di classificazione, simili a quelli che si trovano nei filtri antispam delle e-mail, per ordinare l'output LLM in gruppi predefiniti. “Quando l'output rientra in una categoria sensibile, il sistema attiverà una sostituzione”, ha detto.
Gli esperti cinesi affermano che il proprietario di TikTok, ByteDance, ha fatto i maggiori progressi nella creazione di un LLM che ripete abilmente i punti di discussione di Pechino. Un laboratorio di ricerca presso la Fudan University che ha posto al chatbot domande difficili sui valori socialisti fondamentali gli ha assegnato il primo posto tra gli LLM con un “tasso di conformità alla sicurezza” del 66,4%, ben al di sopra di un punteggio del 7,1% per GPT-4o di OpenAI nello stesso test.
Interrogato sulla leadership di Xi, Doubao ha fornito al FT un lungo elenco dei successi di Xi, aggiungendo che è “senza dubbio un grande leader”.
In una recente conferenza tecnica a Pechino, Fang Binxing, noto come il padre del grande firewall cinese, ha affermato di stare sviluppando un sistema di protocolli di sicurezza per gli LLM che, a suo dire, verrà adottato universalmente dai gruppi di intelligenza artificiale del Paese.
“I grandi modelli predittivi rivolti al pubblico hanno bisogno di più di semplici archivi di sicurezza; hanno bisogno di un monitoraggio della sicurezza online in tempo reale”, ha affermato Fang. “La Cina ha bisogno del suo percorso tecnologico”.
CAC, ByteDance, Alibaba, Moonshot, Baidu e 01.AI non hanno risposto immediatamente alle richieste di commento.