Durante la prima udienza in tribunale per contestare le sanzioni imposte dall’amministrazione Trump, la startup di intelligenza artificiale Anthropic ha chiesto al governo di impegnarsi formalmente a non infliggere ulteriori penalità all’azienda. La richiesta è stata respinta. L’avvocato del Dipartimento di Giustizia, James Harlow, ha dichiarato al giudice distrettuale Rita Lin di non essere “preparato a offrire alcun impegno su quella questione”. Secondo quanto riportato da Wired, il governo si sta anzi preparando a compiere un ulteriore passo per emarginare l’azienda dagli affari con le agenzie federali. Il presidente Trump starebbe finalizzando un ordine esecutivo che vieterebbe formalmente l’uso degli strumenti di Anthropic in tutta la pubblica amministrazione. L’udienza di martedì nasce da una delle due cause federali intentate da Anthropic contro l’amministrazione Trump lunedì, in cui l’azienda accusa il governo di averla designata incostituzionalmente come un rischio per la catena di approvvigionamento, trasformandola in un paria del settore tecnologico.
Le azioni del governo stanno già avendo un impatto finanziario diretto e significativo su Anthropic. L’azienda sostiene che miliardi di dollari di ricavi sono ora a rischio, con clienti attuali e potenziali che stanno recedendo dagli accordi o richiedendo nuove condizioni contrattuali. La designazione come rischio per la supply chain non è una misura puramente simbolica; essa impedisce di fatto ad Anthropic di stipulare nuovi contratti con le agenzie federali e mette in discussione quelli esistenti. L’azienda sta cercando un’ingiunzione preliminare del tribunale per sospendere tale designazione e impedire all’amministrazione di adottare ulteriori misure punitive. L’obiettivo immediato è fermare l’emorragia di business, accelerando i tempi processuali. L’avvocato di Anthropic, Michael Mongan, ha sottolineato che le azioni dei convenuti “stanno causando danni irreparabili, e quei danni si accumulano giorno dopo giorno”.
La disputa legale presenta rischi e limiti sia per Anthropic che per il quadro normativo più ampio. Il caso solleva questioni costituzionali sulla possibilità per il governo di utilizzare strumenti di sicurezza nazionale, come la designazione di rischio per la supply chain, in contesti che potrebbero essere percepiti come punitivi verso aziende per le loro posizioni etiche o politiche. Diversi avvocati esperti in appalti pubblici e diritto costituzionale vedono nell’azione contro Anthropic la continuazione di un modello di abuso della legge per punire presunti nemici politici. Per Anthropic, il rischio principale è l’isolamento dal mercato governativo statunitense, uno dei più grandi al mondo per le tecnologie avanzate. La mossa potrebbe anche scoraggiare investitori e partner commerciali, preoccupati dall’instabilità normativa. D’altra parte, la posizione del Dipartimento della Difesa, che contesta il diritto di un fornitore di veto sull’uso legittimo delle sue tecnologie da parte del militare, pone un limite alla capacità delle aziende tech di influenzare le applicazioni finali dei loro prodotti in contesti sensibili.
La vicenda si inserisce in un’evoluzione più ampia del rapporto tra grandi aziende tecnologiche, in particolare quelle focalizzate sull’IA, e gli stati nazionali. Il conflitto tra Anthropic e il Pentagono è iniziato mesi fa quando la startup si è rifiutata di autorizzare l’uso delle sue tecnologie da parte dei militari per qualsiasi scopo legale, temendo applicazioni come la sorveglianza di massa o il lancio di missili senza supervisione umana. Questo scontro riflette una tensione crescente tra l’autonomia delle aziende nel definire i principi etici del loro operato e la sovranità degli stati nel determinare l’uso delle tecnologie per la sicurezza nazionale. Lo sviluppo futuro più immediato sarà l’udienza preliminare fissata per il 24 marzo a San Francisco, che potrebbe stabilire un precedente significativo. Parallelamente, l’atteso ordine esecutivo del presidente Trump formalizzerebbe ulteriormente l’esclusione di Anthropic. La domanda aperta per sviluppatori, product manager e decisori aziendali è se e come bilanciare i principi etici aziendali con l’accesso a mercati regolamentati e strategicamente cruciali, in un panorama geopolitico sempre più frammentato.
Alessio Baronti
Consulente Strategico AI & Sviluppatore Web


