Rapida integrazione dell’intelligenza artificiale da parte delle forze armate statunitensi: dalle operazioni alle armi autonome

0
17

L’esercito americano sta accelerando l’adozione dell’intelligenza artificiale (AI) a un ritmo senza precedenti, con recenti rapporti che confermano l’uso di chatbot basati sull’intelligenza artificiale come Claude di Anthropic nelle operazioni contro i leader in Venezuela e Iran. Questo dispiegamento segna un cambiamento significativo, sollevando preoccupazioni sulla prontezza di queste tecnologie e sulle implicazioni etiche del loro utilizzo in guerra.

Dalla logistica alla pianificazione letale

Per oltre un decennio, l’esercito americano ha sperimentato l’automazione, concentrandosi inizialmente sul supporto logistico, sulle attività di manutenzione e sui servizi di traduzione. Tuttavia, sotto l’amministrazione Trump, questo approccio si è spostato verso una strategia più aggressiva “AI-first”, guidata dal timore di rimanere indietro rispetto ai rivali globali come la Cina. L’obiettivo non è semplicemente integrare l’intelligenza artificiale in funzioni innocue, ma anche sfruttarla in applicazioni più pericolose.

L’uso segnalato di Claude in operazioni contro il venezuelano Nicolás Maduro e l’ayatollah iraniano Ali Khamenei dimostra quanto velocemente questi sistemi stiano passando dalle fasi di test all’implementazione nel mondo reale. Esperti, come Heidy Khlaaf dell’AI Now Institute, esprimono sorpresa per questa velocità, dati i noti difetti e l’inaffidabilità dei grandi modelli linguistici.

“È stato molto sorprendente vedere l’improvviso dispiegamento di questi strumenti… ci stiamo chiedendo se questi modelli di intelligenza artificiale possano avere successo in qualsiasi contesto militare a causa di quanto siano imperfetti.”

La corsa agli armamenti dell’IA

Il Dipartimento della Guerra degli Stati Uniti sta investendo attivamente in strategie di accelerazione dell’intelligenza artificiale, incluso un budget di 650 milioni di dollari per l’innovazione militare nel 2025. Questo finanziamento sosterrà lo sviluppo di sistemi antidroni basati sull’intelligenza artificiale, l’espansione delle capacità di intelligenza artificiale presso il Cyber Command e persino l’accelerazione delle missioni di sicurezza nazionale nucleare. Il dipartimento ha anche creato genai.mil, un database che fornisce ai burocrati l’accesso ai chatbot basati sull’intelligenza artificiale come Gemini di Google e Grok di xAI.

Questa rapida adozione è alimentata da un senso di urgenza: l’intelligenza artificiale è vista come una tecnologia cruciale per mantenere il dominio americano. Giorgos Verdi, policy fellow presso il Consiglio europeo per le relazioni estere, sottolinea che gli Stati Uniti vedono l’intelligenza artificiale come una “tecnologia molto preziosa” che li manterrà un passo avanti rispetto ai concorrenti.

Il rischio dell’automazione

Nonostante i rischi, l’esercito americano sta procedendo con i test dal vivo dei sistemi di intelligenza artificiale, inclusa una partnership da 200 milioni di dollari con Anthropic per promuovere la sicurezza nazionale. Ciò solleva preoccupazioni etiche, poiché questi sistemi vengono implementati in scenari del mondo reale che coinvolgono vite umane. L’esercito riconosce che l’obiettivo finale potrebbe includere sistemi d’arma completamente autonomi.

“C’è sicuramente un interesse ad avere almeno la possibilità di sviluppare armi completamente autonome abilitate all’intelligenza artificiale e potenzialmente farne uso.”

Una transizione impegnativa

Il Dipartimento della Guerra sta già affrontando sfide, poiché Anthropic ha rifiutato di garantire ai militari accesso illimitato alla sua tecnologia a causa delle preoccupazioni sulla sorveglianza di massa e sullo sviluppo di armi autonome. L’esercito sta ora passando a OpenAI, il che indica che gli Stati Uniti continueranno a utilizzare i chatbot basati sull’intelligenza artificiale nonostante i rischi.

L’intelligence raccolta da Claude rimarrà probabilmente all’interno del dipartimento e sarà utilizzata dal prossimo fornitore di intelligenza artificiale, garantendo la continuità delle operazioni. Gli esperti avvertono che questa rapida adozione potrebbe portare a un’ulteriore erosione dei limiti etici, accelerando potenzialmente lo sviluppo di sistemi d’arma completamente automatizzati.

Conclusione: L’integrazione dell’intelligenza artificiale da parte delle forze armate statunitensi sta avvenendo più velocemente di quanto previsto da molti esperti, spinta dalla competizione geopolitica e dalla volontà di accettare rischi. Questa tendenza solleva questioni critiche sul futuro della guerra, sull’etica delle armi autonome e sul potenziale di escalation dei conflitti.