L’armée américaine accélère son adoption de l’intelligence artificielle (IA) à un rythme sans précédent, avec des rapports récents confirmant l’utilisation de chatbots IA comme Claude d’Anthropic dans des opérations ciblant des dirigeants au Venezuela et en Iran. Ce déploiement marque un changement important, soulevant des inquiétudes quant à l’état de préparation de ces technologies et aux implications éthiques de leur utilisation dans la guerre.
De la logistique à la planification meurtrière
Depuis plus d’une décennie, l’armée américaine expérimente l’automatisation, en se concentrant initialement sur le soutien logistique, les tâches de maintenance et les services de traduction. Cependant, sous l’administration Trump, cette approche a évolué vers une stratégie plus agressive « IA d’abord », motivée par la crainte de prendre du retard sur des rivaux mondiaux comme la Chine. L’objectif n’est pas seulement d’intégrer l’IA dans des fonctions inoffensives mais aussi de l’exploiter dans des applications plus dangereuses.
L’utilisation signalée de Claude dans des opérations contre Nicolas Maduro du Venezuela et l’ayatollah Ali Khamenei d’Iran démontre avec quelle rapidité ces systèmes passent des phases de test au déploiement dans le monde réel. Des experts, comme Heidy Khlaaf de l’AI Now Institute, s’étonnent de cette rapidité, compte tenu des défauts connus et du manque de fiabilité des grands modèles de langage.
“Il a été très surprenant de voir le déploiement soudain de ces outils… nous nous demandons si ces modèles d’IA peuvent réussir dans n’importe quel contexte militaire, en raison de leurs défauts.”
La course aux armements de l’IA
Le Département américain de la Guerre investit activement dans des stratégies d’accélération de l’IA, notamment un budget de 650 millions de dollars pour l’innovation militaire en 2025. Ce financement soutiendra le développement de systèmes de contre-drones alimentés par l’IA, l’expansion des capacités d’IA du Cyber Command et même l’accélération des missions nucléaires de sécurité nationale. Le ministère a également créé genai.mil, une base de données permettant aux bureaucrates d’accéder à des chatbots IA comme Gemini de Google et Grok de xAI.
Cette adoption rapide est alimentée par un sentiment d’urgence : l’IA est considérée comme une technologie cruciale pour maintenir la domination américaine. Giorgos Verdi, chercheur politique au Conseil européen des relations étrangères, souligne que les États-Unis considèrent l’IA comme une « technologie très précieuse » qui leur permettra de conserver une longueur d’avance sur leurs concurrents.
Le risque de l’automatisation
Malgré les risques, l’armée américaine procède à des tests en direct de systèmes d’IA, notamment dans le cadre d’un partenariat de 200 millions de dollars avec Anthropic pour faire progresser la sécurité nationale. Cela soulève des préoccupations éthiques, car ces systèmes sont déployés dans des scénarios réels impliquant des vies humaines. L’armée reconnaît que l’objectif ultime pourrait inclure des systèmes d’armes entièrement autonomes.
“Il y a certainement un intérêt à avoir au moins la possibilité de développer des armes entièrement autonomes basées sur l’IA et potentiellement de les utiliser.”
Une transition difficile
Le ministère de la Guerre est déjà confronté à des défis, car Anthropic a refusé d’accorder aux militaires un accès illimité à sa technologie en raison de préoccupations concernant la surveillance de masse et le développement d’armes autonomes. L’armée est en train de passer à OpenAI, ce qui indique que les États-Unis continueront à utiliser des chatbots IA malgré les risques.
Les renseignements recueillis par Claude resteront probablement au sein du ministère et seront utilisés par le prochain fournisseur d’IA, assurant ainsi la continuité des opérations. Les experts préviennent que cette adoption rapide pourrait conduire à une nouvelle érosion des garde-fous éthiques, accélérant potentiellement le développement de systèmes d’armes entièrement automatisés.
Conclusion : L’intégration de l’IA par l’armée américaine se produit plus rapidement que de nombreux experts ne l’avaient prédit, sous l’effet de la concurrence géopolitique et de la volonté d’accepter des risques. Cette tendance soulève des questions cruciales sur l’avenir de la guerre, l’éthique des armes autonomes et le potentiel d’escalade du conflit.





















