
La Corte d’Appello federale della Columbia dà ragione al Pentagono: Anthropic rimane un rischio per la sicurezza della supply chain
Anthropic è quindi un problema per la sicurezza nazionale degli Stati Uniti, o no? A questa domanda non sarà facile rispondere definitivamente, perché per un po’ di tempo assisteremo a uno scontro tra tribunali a suon di sentenze. Una sceneggiatura buona per un film del tipo courtroom drama all’americana, dove i colpi di scena non mancheranno.
La battaglia legale tra Anthropic e il Pentagono entra quindi in una nuova fase, che per ora sorride all’amministrazione Trump. La Corte d’Appello federale del Distretto di Columbia ha infatti respinto la richiesta urgente della società di sospendere la propria designazione come “rischio per la sicurezza della catena di approvvigionamento”, lasciando in vigore il provvedimento del Dipartimento della Guerra (ex Difesa).
La decisione dei giudici non rappresenta ancora un verdetto definitivo, ma segna un passaggio chiave: il tribunale ha rifiutato di bloccare temporaneamente la misura, consentendo al Pentagono di continuare a escludere Anthropic dai contratti militari e, potenzialmente, da una più ampia platea di forniture federali.
La società, sviluppatrice dell’assistente AI Claude, aveva chiesto una sospensione sostenendo che la designazione le avrebbe causato danni economici e reputazionali per miliardi di dollari. I giudici hanno riconosciuto il rischio di tali danni, ma hanno ritenuto prevalenti le esigenze di sicurezza nazionale e operatività militare.
L’acting Attorney General, Todd Blanche, ha definito la decisione “una vittoria per la prontezza militare”, ribadendo in un post che “l’autorità militare e il controllo operativo appartengono al comandante in capo e al Dipartimento della Guerra, non a una società tecnologica”.
Lo scontro sull’uso dell’AI in guerra
Alla base del contenzioso c’è una frattura profonda tra governo e azienda sull’impiego dell’intelligenza artificiale in ambito militare. Il segretario alla Guerra, Pete Hegseth, ha classificato Anthropic come rischio per la supply chain dopo che la società si era rifiutata di rimuovere alcuni limiti (guardrail) dai propri modelli, in particolare per applicazioni legate alla sorveglianza e alle armi autonome.
Una posizione coerente con la linea dichiarata dall’azienda sulla sicurezza dell’AI, ma che, secondo il Dipartimento della Difesa, avrebbe potuto generare incertezza operativa fino a compromettere sistemi militari in contesti critici.
Il governo sostiene che la decisione non sia legata alle opinioni di Anthropic, bensì al rifiuto di accettare determinate clausole contrattuali. Di segno opposto la tesi dell’azienda, che accusa Washington di aver violato il Primo Emendamento (libertà di espressione) e il Quinto Emendamento (diritto al giusto processo), non avendo potuto contestare formalmente la designazione.
Un’accusa riconosciuta valida da una sentenza favorevole ad Anthropic emessa da un Tribunale della California appena due settimane fa.
Un caso senza precedenti
La misura adottata dal Pentagono è senza precedenti: è la prima volta che una società americana viene pubblicamente etichettata come rischio per la sicurezza della catena di approvvigionamento sulla base di norme pensate per prevenire sabotaggi o infiltrazioni nemiche.
Il caso si inserisce inoltre in un contesto paradossale: nel 2025 Anthropic aveva firmato un contratto da 200 milioni di dollari con il Dipartimento della Difesa, portando Claude all’interno delle reti classificate del governo e nei laboratori nucleari, con funzioni anche di analisi di intelligence.
La rottura è quindi recente e riflette un cambio di clima politico e strategico sull’uso dell’AI in ambito militare.
I prossimi passaggi: verso una decisione di merito
Il cuore della partita si giocherà ora nel merito. La stessa Corte del Distretto di Columbia ha accelerato il calendario e dovrebbe pronunciarsi già il 19 maggio 2026 sulla legittimità della designazione.
In quella sede i giudici dovranno stabilire se la misura sia: fondata su elementi concreti, proporzionata rispetto ai rischi e compatibile con i diritti costituzionali invocati da Anthropic.
La decisione avrà effetti anche sugli altri procedimenti federali, contribuendo a definire un precedente cruciale nel rapporto tra sicurezza nazionale e libertà delle imprese tecnologiche.
Possibile escalation alla Corte Suprema
Qualunque sia l’esito, è probabile che la vicenda non si chiuda lì. Se la linea favorevole al Pentagono dovesse essere confermata, Anthropic potrebbe rivolgersi alla Corte Suprema, puntando soprattutto sul tema del Primo Emendamento.
Allo stesso modo, una decisione contraria al governo potrebbe spingere il Dipartimento della Difesa o la Casa Bianca a chiedere un intervento del massimo organo giudiziario.
Un contesto di crescente allarme sull’AI
Il caso giudiziario si intreccia con un clima di crescente preoccupazione istituzionale. Secondo Bloomberg, il segretario al Tesoro, Scott Bessent, e il presidente della Federal Reserve, Jerome Powell, hanno recentemente convocato i vertici delle principali banche di Wall Street, tra cui Jane Fraser (Citigroup), Ted Pick (Morgan Stanley), Brian Moynihan (Bank of America), Charlie Scharf (Wells Fargo) e David Solomon (Goldman Sachs), per discutere dei rischi informatici legati ai nuovi modelli di AI, incluso il sistema “Mythos” sviluppato da Anthropic.
Il timore è che una nuova generazione di attacchi cyber possa mettere sotto pressione infrastrutture finanziarie sistemiche.
Una posta in gioco da centinaia di miliardi
La controversia arriva in un momento di crescita straordinaria per Anthropic. La valutazione della società è passata da oltre 65 miliardi di dollari nel marzo 2025 a circa 350 miliardi all’inizio del 2026, con previsioni di 400-600 miliardi in vista della quotazione in Borsa.
Il fatturato annualizzato ha superato i 30 miliardi di dollari ad aprile 2026, mentre il valore delle stock option dei dipendenti è aumentato rapidamente, moltiplicandosi fino a dieci volte in alcuni casi. Aprendo di fatto una sfida tecnologica e di potere con OpenAI di Sam Altman.
Proprio questa espansione rende la posta in gioco ancora più elevata: una conferma definitiva della “blacklist” potrebbe incidere profondamente sul posizionamento dell’azienda nei mercati pubblici e nei rapporti con governi e grandi clienti istituzionali.
Leggi le altre notizie sull’home page di Key4biz
https://www.key4biz.it/anthropic-nuova-sentenza-della-corte-federale-e-round-favorevole-al-pentagono-e-trump/569068/

