Anthropic ha promesso un ricorso legale dopo essere stato etichettato come un rischio per la sicurezza dal Pentagono e bandito dai contratti governativi, intensificando la battaglia tra il laboratorio di intelligenza artificiale e l’amministrazione Trump.
Venerdì il presidente degli Stati Uniti Donald Trump ha concesso ad Anthropic sei mesi prima che venisse tagliata dai contratti governativi, affermando che la startup di intelligenza artificiale ha commesso un “errore disastroso” sfidando il Pentagono sull’uso militare della sua tecnologia.
Il presidente ha affermato in un post su Truth Social che non avrebbe “CONSENTITO A UNA SINISTRA RADICALE E A UN’AZIENDA SVEGLIATA DI DETTARE COME I NOSTRI GRANDI MILITARI COMBATTONO E VINCONO LE GUERRE!”
Il Pentagono ha quindi designato Anthropic come un rischio per la catena di approvvigionamento, un’azione senza precedenti contro un’azienda americana.
Dopo che venerdì è scaduto il termine per concordare i termini, il segretario alla Difesa Pete Hegseth ha affermato che la società ha “tenuto un corso di perfezionamento sull’arroganza e il tradimento”. Con effetto immediato, nessun appaltatore o fornitore del Pentagono “potrà condurre alcuna attività commerciale con Anthropic”, ha aggiunto.
Anthropic ha dichiarato che intende contestare tale decisione in tribunale.
“Nessuna quantità di intimidazione o punizione da parte del Dipartimento di Guerra cambierà la nostra posizione sulla sorveglianza nazionale di massa o sulle armi completamente autonome. Contesteremo qualsiasi designazione di rischio nella catena di approvvigionamento in tribunale”, ha affermato la società venerdì sera.
Anthropic ha aggiunto che Hegseth non aveva “l'autorità statutaria per sostenere questa affermazione. Legalmente, una designazione del rischio della catena di fornitura… può estendersi solo all'uso di Claude come parte dei contratti del Dipartimento di Guerra – non può influenzare il modo in cui gli appaltatori utilizzano Claude per servire altri clienti.”
Alan Rozenshtein, professore associato presso la Facoltà di Giurisprudenza dell'Università del Minnesota, ha affermato che “la designazione del rischio nella catena di fornitura è giuridicamente debole… Non sarei sorpreso se tutte le parti, compreso il governo, lo capissero”.
L’amministratore delegato di Anthropic Dario Amodei si è scontrato con Hegseth su come l’esercito utilizza i suoi modelli di intelligenza artificiale, attenendosi alle linee rosse sulle armi letali autonome o per la sorveglianza interna di massa.
Trump nel suo incarico ha affermato che “sta ordinando a OGNI agenzia federale del governo degli Stati Uniti di CESSARE IMMEDIATAMENTE ogni utilizzo della tecnologia di Anthropic”.
Ma il presidente ha aggiunto che concederà un “periodo di eliminazione graduale di sei mesi per le agenzie come il Dipartimento di Guerra che utilizzano i prodotti di Anthropic, a vari livelli”, dando potenzialmente tempo alle due parti per concludere un accordo.
Il Pentagono stava negoziando con Anthropic fino al momento in cui il presidente ha postato l'annuncio, hanno detto due persone a conoscenza della questione.
Claude di Anthropic è l'unico modello di intelligenza artificiale utilizzato in operazioni classificate, essendo stato utilizzato nel sequestro del leader venezuelano Nicolás Maduro il mese scorso.
Un funzionario dell'amministrazione ha detto al FT che rimane il modello migliore per uso militare. Mark Warner, il massimo democratico della commissione intelligence del Senato americano, ha affermato che la mossa di Trump rappresenta “un enorme rischio per la preparazione della difesa degli Stati Uniti”.
OpenAI più tardi venerdì ha annunciato di aver raggiunto un accordo con il Pentagono per “distribuire i nostri modelli nella loro rete riservata”.
“Due dei nostri più importanti principi di sicurezza sono il divieto della sorveglianza di massa interna e la responsabilità umana nell'uso della forza, compresi i sistemi d'arma autonomi”, ha affermato l'amministratore delegato della società Sam Altman su X.
“La DoW concorda con questi principi, li riflette nella legge e nella politica e li inseriamo nel nostro accordo”.
Giovedì Altman ha detto allo staff che il produttore di ChatGPT consentirà “qualsiasi uso tranne quelli illegali o inadatti alle implementazioni cloud, come la sorveglianza domestica e le armi offensive autonome”.
Anche xAI di Elon Musk è vicino a un accordo, hanno detto persone a conoscenza della questione.
Josh Gruenbaum, il capo degli appalti statunitensi che ha siglato un accordo con Anthropic lo scorso agosto per fornire agenzie governative, ha affermato che l’accordo è stato risolto immediatamente perché sarebbe “pericoloso per la nostra nazione” mantenere un rapporto commerciale con l’azienda.
Eliminando Anthropic dalla sua catena di approvvigionamento, il Pentagono sta attuando un processo che finora è stato utilizzato solo contro aziende straniere situate in paesi come Cina e Russia.
I gruppi che in precedenza erano stati considerati un rischio per la catena di approvvigionamento includono Huawei e ZTE Corporation in Cina e Kaspersky Lab in Russia.
Anthropic ha sostenuto che i modelli di intelligenza artificiale non sono sufficientemente affidabili per rimuovere gli esseri umani dalla “catena della morte” e che le leggi sulla sorveglianza esistenti sono inadeguate a prevenire la sorveglianza di massa.
Il Pentagono ha contestato ciò, affermando di non avere intenzione di utilizzare l’intelligenza artificiale nel modo in cui Anthropic temeva e accusando la compagnia di far deragliare i colloqui spingendo per un controllo eccessivo sulle operazioni militari.
Martedì Amodei è stato convocato a Washington per colloqui, che non sono riusciti a produrre una risoluzione. Giovedì ha affermato che la sua azienda “non può in buona coscienza” accettare i termini del governo degli Stati Uniti.
Il Pentagono “ha deciso di fare di Dario un cattivo non patriottico, per dare l'esempio e intimidire le altre società”, ha detto un ex alto funzionario della difesa. “È profondamente pericoloso.”
