Anthropic ha accusato tre importanti laboratori cinesi di intelligenza artificiale di attacchi “su scala industriale”, sollevando preoccupazioni per la sicurezza nazionale del settore.
La start-up AI, che ha sviluppato il popolare strumento di codifica Claude, ha dichiarato lunedì che DeepSeek, Moonshot e MiniMax hanno condotto “attacchi di distillazione su scala industriale sui nostri modelli”.
La distillazione si riferisce alla pratica di addestrare modelli più piccoli sugli output di sistemi più avanzati, consentendo agli sviluppatori di replicare prestazioni di alto livello senza le stesse risorse di calcolo.
È diventata una questione sempre più delicata poiché i gruppi cinesi di intelligenza artificiale sono alle prese con i controlli sulle esportazioni statunitensi che limitano il loro accesso ai chip più avanzati di Nvidia, inclusa la serie Blackwell. Questi freni hanno costretto le aziende ad adottare strategie alternative, come modelli di formazione all’estero, l’utilizzo di semiconduttori più vecchi o di contrabbando e la riduzione dei costi attraverso l’efficienza ingegneristica.
Anthropic, con sede a San Francisco, ha affermato di aver identificato 24.000 account fraudolenti e generato oltre 16 milioni di scambi con Claude, che secondo lei le società utilizzavano per “addestrare e migliorare i propri modelli”. DeepSeek, Moonshot e MiniMax non hanno risposto immediatamente alle richieste di commento.
“Gli attacchi alla distillazione minano tali controlli consentendo ai laboratori stranieri, compresi quelli soggetti al controllo del Partito comunista cinese, di eliminare il vantaggio competitivo che i controlli sulle esportazioni sono progettati per preservare con altri mezzi”, ha affermato Anthropic.
I gruppi cinesi di intelligenza artificiale, tra cui Moonshot e MiniMax, hanno rilasciato nell'ultimo mese una serie di nuovi potenti modelli che gli sviluppatori hanno elogiato per la loro efficienza nella creazione di applicazioni come agenti AI e generazione di video.
DeepSeek, il cui rivoluzionario modello R1 nel gennaio dello scorso anno ha sbalordito la Silicon Valley con le sue prestazioni e il basso costo, avrebbe dovuto svelare un successore prima delle vacanze del Capodanno lunare della scorsa settimana. Ma deve ancora fare un annuncio.
Dal rilascio di R1, DeepSeek ha rilasciato aggiornamenti incrementali anziché un nuovo modello di punta, consentendo ai rivali nazionali, tra cui Alibaba e ByteDance, di guadagnare terreno e attrarre sviluppatori alla ricerca di sistemi open source a basso costo.
Le società statunitensi di intelligenza artificiale, così come l’amministrazione statunitense, hanno avvertito che i modelli distillati potrebbero creare rischi per la sicurezza nazionale. Anthropic ha affermato che i modelli “costruiti attraverso la distillazione illecita” “è improbabile che mantengano” misure di sicurezza per impedire l’uso dell’intelligenza artificiale per sviluppare armi biologiche o svolgere attività informatiche dannose.
Lo scorso gennaio, OpenAI ha dichiarato di aver trovato prove di distillazione dei suoi modelli alla base di ChatGPT, che sospettava provenissero da DeepSeek.
OpenAI ha inviato una nota al comitato ristretto della Camera degli Stati Uniti sulla concorrenza strategica tra gli Stati Uniti e il Partito comunista cinese all'inizio di questo mese in cui affermava che il prossimo modello di DeepSeek “dovrebbe essere compreso nel contesto dei suoi continui sforzi per sfruttare liberamente le capacità sviluppate da OpenAI e altri laboratori di frontiera statunitensi”.
Ha accusato DeepSeek di riflettere “la censura e il controllo delle informazioni del PCC” e ha sostenuto che “la distillazione contraddittoria pone seri rischi in termini di costi, sicurezza, commerciali e strategici per gli Stati Uniti”.
