Ven. Mar 20th, 2026
Pete Hegseth minaccia di escludere Anthropic dalla catena di approvvigionamento del Pentagono in uno scontro con il CEO

Il segretario alla difesa statunitense Pete Hegseth ha minacciato di escludere Anthropic dalla catena di approvvigionamento del suo dipartimento a meno che non accetti di approvare l'utilizzo della sua tecnologia in tutte le applicazioni militari legali entro venerdì.

La minaccia è l’ultima escalation di una faida tra Anthropic e il dipartimento, innescata dal rifiuto del gruppo AI di concedere accesso illimitato ai suoi modelli per uso militare classificato, compresa la sorveglianza interna e i sistemi di armi autonome letali.

Martedì Hegseth ha convocato a Washington il capo dell'Anthropic Dario Amodei per un incontro. Durante i colloqui, il segretario alla Difesa ha minacciato di escludere l'Anthropic dalla catena di approvvigionamento del dipartimento o di invocare il Defense Production Act, che consente al presidente di esercitare il controllo sull'industria nazionale nell'interesse della difesa nazionale, secondo una persona a conoscenza dei colloqui.

Anthropic ha confermato che l'incontro ha avuto luogo martedì. “Abbiamo continuato le conversazioni in buona fede sulla nostra politica di utilizzo per garantire che Anthropic possa continuare a sostenere la missione di sicurezza nazionale del governo in linea con ciò che i nostri modelli possono fare in modo affidabile e responsabile”, si legge in una nota.

Claude di Anthropic è l'unico modello che lavora su missioni classificate, come risultato della partnership del gruppo con Palantir.

Hegseth sta anche negoziando con i laboratori di intelligenza artificiale, tra cui Google, OpenAI e xAI di Elon Musk, per integrare la loro tecnologia in sistemi militari classificati.

Anthropic ha espresso particolare preoccupazione per il fatto che i suoi modelli vengano utilizzati per missioni letali che non coinvolgono un essere umano, sostenendo che anche i modelli di intelligenza artificiale all'avanguardia non sono ancora abbastanza affidabili da poter essere considerati attendibili in tali contesti, secondo persone che hanno familiarità con i negoziati.

Ha anche spinto per nuove regole per disciplinare l’uso dei modelli di intelligenza artificiale per la sorveglianza domestica di massa, hanno aggiunto.

Una mossa per eliminare Anthropic dalla catena di fornitura del dipartimento della difesa avrebbe conseguenze significative per il lavoro di sicurezza nazionale, così come per l’azienda, che ha un contratto da 200 milioni di dollari con il dipartimento.

Claude è stato utilizzato nella cattura da parte degli Stati Uniti del leader venezuelano Nicolás Maduro a gennaio. Quella missione ha spinto Anthropic a interrogarsi sull’esatto modo in cui è stato utilizzato il suo modello, secondo persone che hanno familiarità con la questione.

Il dipartimento della difesa ha rifiutato di commentare.