Lun. Lug 7th, 2025
I gruppi cinesi di intelligenza artificiale diventano creativi per ridurre i costi dei modelli

Rimani informato con aggiornamenti gratuiti

Le società cinesi di intelligenza artificiale stanno riducendo i costi per creare modelli competitivi, poiché devono far fronte alle restrizioni statunitensi sui chip e ai budget inferiori rispetto alle loro controparti occidentali.

Start-up come 01.ai e DeepSeek hanno ridotto i prezzi adottando strategie come concentrarsi su set di dati più piccoli per addestrare modelli di intelligenza artificiale e assumere ingegneri informatici economici ma qualificati.

Gruppi tecnologici più grandi come Alibaba, Baidu e ByteDance si sono anche impegnati in una guerra dei prezzi per ridurre i costi di “inferenza”, il prezzo da pagare per ricorrere a modelli linguistici di grandi dimensioni per generare una risposta, di oltre il 90% e ad una frazione di quello offerto. da parte delle controparti statunitensi.

Ciò nonostante le aziende cinesi debbano affrontare il divieto di Washington sulle esportazioni dei chip AI Nvidia di fascia alta, considerati cruciali per lo sviluppo dei modelli più all’avanguardia negli Stati Uniti.

01.ai, con sede a Pechino, guidata da Lee Kai-Fu, ex capo di Google China, ha affermato di aver ridotto i costi di inferenza costruendo un modello addestrato su quantità minori di dati che richiede meno potenza di calcolo e ottimizzando il proprio hardware.

“La forza della Cina è creare motori di inferenza davvero convenienti e poi lasciare che le applicazioni proliferino”, ha detto Lee al MagicTech.

Questa settimana, il modello Yi-Lightning di 01.ai è arrivato terzo tra le società LLM insieme a Grok-2 di x.AI, ma dietro OpenAI e Google in una classifica pubblicata dai ricercatori dell'UC Berkeley SkyLab e LMSYS.

Le valutazioni si basano sugli utenti che assegnano un punteggio alle risposte dei diversi modelli alle query. Anche altri attori cinesi, tra cui ByteDance, Alibaba e DeepSeek, sono saliti nelle classifiche degli LLM.

Il costo per l'inferenza su Yi-Lightning di 01.ai è di 14 centesimi per milione di token, rispetto ai 26 centesimi del modello più piccolo GPT o1-mini di OpenAI. Nel frattempo, i costi di inferenza per il GPT 4o molto più grande di OpenAI sono di 4,40 dollari per milione di token. Il numero di token utilizzati per generare una risposta dipende dalla complessità della query.

Lee ha anche affermato che Yi-Lightning costa 3 milioni di dollari per il “pre-addestramento”, un modello di formazione iniziale che può poi essere messo a punto o personalizzato per diversi casi d'uso. Si tratta di una piccola frazione del costo indicato da aziende come OpenAI per i suoi modelli di grandi dimensioni. Ha aggiunto che l'obiettivo non è quello di avere il “modello migliore”, ma uno competitivo che sia “da cinque a dieci volte meno costoso” per gli sviluppatori da utilizzare per creare applicazioni.

Molti gruppi cinesi di intelligenza artificiale, tra cui 01.ai, DeepSeek, MiniMax e Stepfun, hanno adottato il cosiddetto approccio del “modello dell’esperto”, una strategia resa popolare per la prima volta dai ricercatori statunitensi.

Invece di addestrare un “modello denso” alla volta su un vasto database che ha raccolto dati da Internet e da altre fonti, l’approccio combina molte reti neurali addestrate su dati specifici del settore.

I ricercatori considerano l’approccio del modello dell’esperto come un modo fondamentale per raggiungere lo stesso livello di intelligenza di un modello denso ma con meno potenza di calcolo. Ma l’approccio può essere più incline al fallimento poiché gli ingegneri devono orchestrare il processo di formazione tra più “esperti” anziché in un unico modello.

Data la difficoltà nel garantire una fornitura ampia e costante di chip IA di fascia alta, negli ultimi anni i giocatori cinesi di intelligenza artificiale hanno gareggiato per sviluppare set di dati della massima qualità per formare questi “esperti” e distinguersi dalla concorrenza.

Lee ha affermato che 01.ai ha approcci alla raccolta dei dati che vanno oltre il metodo tradizionale di scraping di Internet, inclusa la scansione di libri e la scansione di articoli sull'app di messaggistica WeChat che sono inaccessibili sul web aperto.

“C’è un sacco di lavoro ingrato” da parte degli ingegneri per etichettare e classificare i dati, ha detto, ma ha aggiunto che la Cina – con il suo vasto bacino di talenti ingegneristici a basso costo – è in una posizione migliore per farlo rispetto agli Stati Uniti.

“La forza della Cina non sta nel fare la migliore ricerca rivoluzionaria che nessuno abbia mai fatto prima, dove il budget non ha limiti”, ha detto Lee. “La forza della Cina è costruire bene, costruire velocemente, costruire in modo affidabile e costruire a basso costo”.

Reporting aggiuntivo di Cristina Criddle a San Francisco