6 marzo 2026 Blog

Anthropic contesta in tribunale la designazione del Pentagono come rischio per la supply chain

La società di AI sfida la decisione del Dipartimento della Difesa, definendola "giuridicamente infondata". Il caso solleva questioni sul controllo militare sui sistemi di intelligenza artificiale.

Anthropic contesta in tribunale la designazione del Pentagono come rischio per la supply chain

Dario Amodei, CEO di Anthropic, ha dichiarato giovedì che l’azienda intende contestare in tribunale la decisione del Dipartimento della Difesa (DOD) degli Stati Uniti di etichettarla come un rischio per la catena di approvvigionamento. La designazione, definita da Amodei “giuridicamente infondata”, è stata formalizzata dopo settimane di disputa sul livello di controllo che i militari dovrebbero avere sui sistemi di intelligenza artificiale. Secondo quanto riportato da TechCrunch, la dichiarazione di Amodei è arrivata poche ore dopo l’annuncio ufficiale del DOD. Una designazione di rischio per la supply chain può impedire a un’azienda di lavorare con il Pentagono e i suoi appaltatori. Amodei ha tracciato un confine netto, affermando che l’AI di Anthropic non sarà utilizzata per la sorveglianza di massa dei cittadini americani o per armi completamente autonome. Il Pentagono, dal canto suo, riteneva di dover avere accesso senza restrizioni per “tutti gli scopi legittimi”.

L’impatto immediato della designazione sembra essere circoscritto. Amodei ha specificato che la stragrande maggioranza dei clienti di Anthropic non è interessata dalla misura. La designazione si applicherebbe esclusivamente all’uso di Claude come parte diretta di contratti con il Dipartimento della Difesa, non a tutti gli utilizzi da parte di clienti che hanno tali contratti. Per gli appaltatori del DOD, la designazione non può limitare gli usi di Claude o i rapporti commerciali con Anthropic se non correlati ai loro specifici contratti con il Dipartimento. Amodei ha anticipato la probabile argomentazione legale, sostenendo che la lettera del Dipartimento è di portata ristretta. La legge richiederebbe al Segretario alla Difesa di utilizzare i mezzi meno restrittivi necessari per proteggere la catena di approvvigionamento, non per punire un fornitore.

Il caso presenta rischi e limiti sia per Anthropic che per il quadro normativo. La disputa pubblica potrebbe danneggiare la reputazione dell’azienda nel settore della difesa e della sicurezza nazionale, un mercato significativo per le tecnologie avanzate. La designazione, anche se limitata, crea un precedente che altre agenzie governative potrebbero seguire, potenzialmente restringendo l’accesso di Anthropic a contratti pubblici. Un rischio non dichiarato ma inferibile riguarda la coerenza delle politiche di AI safety. Amodei ha rivelato che Anthropic stava avendo conversazioni produttive con il DOD nei giorni precedenti, dialogo che si sospetta sia stato compromesso dalla fuga di un memo interno. In quel documento, Amodei avrebbe definito i rapporti della rivale OpenAI con il Dipartimento della Difesa come “safety theater”, una critica che potrebbe riflettersi negativamente sul clima di collaborazione nel settore. La posizione di principio di Anthropic contro armi autonome e sorveglianza di massa, sebbene eticamente definita, pone un limite pratico alla sua applicabilità in scenari di difesa avanzati dove tali tecnologie sono in sviluppo.

Questa vicenda si inserisce in un’evoluzione più ampia del rapporto tra aziende di AI e governi, in particolare nel settore della difesa. Segna un caso di studio su come un’azienda fondata su principi di sicurezza possa gestire le pressioni per l’adozione militare. La mossa di OpenAI, che ha siglato un accordo con il DOD al posto di Anthropic, evidenzia approcci divergenti all’interno dello stesso ecosistema, e ha già generato malcontento tra il personale di OpenAI. Il contenzioso legale che ne seguirà potrebbe chiarire i limiti del potere del governo di etichettare fornitori di software come rischi per la supply chain, un concetto tradizionalmente applicato a hardware e componenti fisici. La domanda aperta è se questo caso porterà a linee guida più chiare per l’uso responsabile dell’AI nella difesa o se frammenterà ulteriormente il mercato tra aziende disposte a collaborare senza restrizioni e altre che pongono condizioni etiche stringenti.

Condividi l'articolo

Ti è piaciuto l'articolo?
AB

Alessio Baronti

Consulente Strategico AI & Sviluppatore Web