Una corte d’appello federale ha inferto un duro colpo allo sviluppatore di intelligenza artificiale Anthropic, rifiutando una mozione per annullare una designazione del Dipartimento della Difesa (DoD) che etichetta l’azienda come un “rischio nella catena di fornitura”.
La decisione, emessa mercoledì da un collegio di tre giudici della Corte d’Appello degli Stati Uniti per il Circuito del Distretto di Columbia, significa che la società rimane all’ombra delle preoccupazioni per la sicurezza mentre continua la sua battaglia legale contro l’amministrazione Trump.
La sentenza della Corte
In una concisa sentenza di quattro pagine, la giuria ha stabilito che Anthropic non ha soddisfatto i “rigorosi requisiti” necessari per mantenere o revocare la classificazione del governo. I giudici hanno concluso che, in questa fase del contenzioso, l’equilibrio legale ed equo favorisce il diritto del governo di classificare le entità in base agli interessi di sicurezza nazionale percepiti.
“A nostro avviso l’equilibrio qui va a favore del governo”, hanno osservato i giudici nella loro decisione.
Contesto: un crescente conflitto sull’intelligenza artificiale in guerra
Questo scontro giuridico non è semplicemente una controversia procedurale; è un sintomo di una tensione molto più ampia riguardo all’integrazione dell’intelligenza artificiale nelle operazioni militari. L’attrito tra Anthropic e il Pentagono deriva da un fallito negoziato per un contratto da 200 milioni di dollari che prevede l’uso dell’intelligenza artificiale in sistemi altamente classificati.
La definizione di “rischio della catena di fornitura” è uno strumento potente utilizzato dal governo. Nel contesto della tecnologia ad alto rischio, può:
– Limitare l’accesso ai contratti governativi sensibili.
– Limitare le collaborazioni con le agenzie della difesa.
– Segnalare cautela agli altri appaltatori e ai partner internazionali.
Questo caso evidenzia una tendenza emergente critica: man mano che l’intelligenza artificiale diventa centrale nella guerra moderna, il confine tra innovazione tecnologica e sicurezza nazionale diventa sempre più sfumato. Il governo sta affermando in modo aggressivo il proprio diritto di controllare le aziende che forniscono i “cervelli” dietro i futuri sistemi di difesa, mentre gli sviluppatori di intelligenza artificiale stanno lottando per garantire che le etichette di sicurezza non vengano utilizzate come strumenti per soffocare la concorrenza o interrompere la crescita commerciale.
Cosa succede dopo?
Anche se questa sentenza rappresenta una chiara vittoria per l’amministrazione Trump, non è un giudizio finale nel merito del caso Anthropic. Il contenzioso è in corso, con Anthropic che sta portando avanti una sfida legale parallela in un tribunale federale della California. La questione centrale rimane se la classificazione del Dipartimento della Difesa si basi su minacce alla sicurezza comprovate o se serva come manovra strategica nel panorama competitivo degli appalti della difesa.
**Conclusione





















