4 marzo 2026 Blog

Il Pentagono e l'IA: il compromesso di OpenAI e la battaglia legale di Anthropic

La collaborazione tra OpenAI e il Dipartimento della Difesa USA solleva questioni etiche e legali, mentre Anthropic affronta sanzioni per aver rifiutato certi usi militari.

Il Pentagono e l'IA: il compromesso di OpenAI e la battaglia legale di Anthropic

Il Dipartimento della Difesa degli Stati Uniti ha annunciato un accordo con OpenAI per l’utilizzo dei suoi modelli di intelligenza artificiale, secondo quanto riportato dal MIT Tech Review. Contemporaneamente, il Segretario alla Difesa Pete Hegseth ha dichiarato che il governo cesserà ogni collaborazione con Anthropic, classificandola come un rischio per la catena di approvvigionamento. La decisione segue il rifiuto di Anthropic di consentire l’uso del suo modello Claude per armi autonome o sorveglianza di massa domestica. Hegseth ha concesso al Pentagono sei mesi per sostituire Claude, attualmente utilizzato in operazioni classificate, con modelli di OpenAI e xAI di Elon Musk. La fonte originale della notizia è il MIT Tech Review.

L’impatto immediato riguarda la capacità operativa del Pentagono e il panorama competitivo dei fornitori di IA. Il Dipartimento della Difesa dovrà gestire una transizione tecnica complessa, sostituendo un modello integrato in operazioni sensibili, comprese alcune in Venezuela e, secondo i rapporti, utilizzato anche nelle recenti azioni contro l’Iran nonostante il divieto. Per OpenAI, l’accordo rappresenta un’importante entrata nel settore della difesa, un dominio ad alto budget ma anche ad alto rischio reputazionale. Per le aziende che lavorano con il governo, la mossa contro Anthropic stabilisce un precedente potenzialmente vincolante: Hegseth ha dichiarato che nessun appaltatore, fornitore o partner che fa affari con i militari statunitensi potrà condurre attività commerciali con Anthropic, una misura che, se applicata, potrebbe isolare commercialmente l’azienda.

I rischi e i limiti di questa situazione sono multipli e non solo tecnologici. Il limite principale è di natura etica e di governance: l’accordo di OpenAI sembra basarsi sul rispetto della legge come unico confine per l’uso della sua tecnologia da parte del Pentagono, una posizione che differisce dall’approccio più restrittivo di Anthropic. Questo solleva interrogativi sull’efficacia delle autolimitazioni delle aziende tecnologiche quando si confrontano con le esigenze della sicurezza nazionale. Dal punto di vista operativo, esiste il rischio concreto di interruzioni durante la fase di transizione dei sei mesi, con possibili implicazioni per la sicurezza delle operazioni. Legalmente, la mossa contro Anthropic è contestata; l’azienda ha annunciato che intenterà una causa se la minaccia verrà perseguita, e anche OpenAI si è espressa contro di essa, indicando un potenziale contenzioso prolungato.

Questa vicenda segna un punto di svolta nell’evoluzione del rapporto tra sviluppatori di IA avanzata e governi, in particolare nel settore della difesa. La pressione del piano di accelerazione dell’IA del Pentagono sta testando i principi etici che alcune aziende avevano dichiarato. Le nuove tensioni in Medio Oriente stanno fungendo da terreno di prova per questi modelli e per le politiche che li regolano. Lo sviluppo futuro dipenderà dall’esito della battaglia legale di Anthropic, dalla reazione del mercato del lavoro specializzato (alcuni dipendenti di OpenAI potrebbero vedere nel compromesso di Altman una linea etica superata) e dalla capacità del Pentagono di integrare efficacemente nuovi modelli in scenari ad alta pressione. La domanda centrale che rimane aperta è se il quadro normativo esistente sia sufficiente a governare l’uso dell’IA in contesti bellici o se, in assenza di regole chiare, la responsabilità di tracciare confini ricadrà sempre più sulle scelte corporate, con tutti i rischi geopolitici che ciò comporta.

AB

Alessio Baronti

Consulente Strategico AI & Sviluppatore Web