Os militares dos EUA estão a acelerar a adopção da inteligência artificial (IA) a um ritmo sem precedentes, com relatórios recentes confirmando a utilização de chatbots de IA como o Claude da Anthropic em operações que visam líderes na Venezuela e no Irão. Esta implantação marca uma mudança significativa, levantando preocupações sobre a prontidão destas tecnologias e as implicações éticas da sua utilização na guerra.
Da Logística ao Planejamento Letal
Durante mais de uma década, os militares dos EUA têm experimentado a automação, concentrando-se inicialmente no apoio logístico, tarefas de manutenção e serviços de tradução. No entanto, sob a administração Trump, esta abordagem mudou para uma estratégia mais agressiva de “AI-first”, impulsionada pelo receio de ficar para trás de rivais globais como a China. O objetivo não é apenas integrar a IA em funções inofensivas, mas também aproveitá-la em aplicações mais perigosas.
A alegada utilização de Claude em operações contra Nicolás Maduro, da Venezuela, e o aiatolá Ali Khamenei, do Irão, demonstra a rapidez com que estes sistemas estão a passar das fases de testes para a implantação no mundo real. Especialistas, como Heidy Khlaaf, do AI Now Institute, expressam surpresa com essa velocidade, dadas as falhas conhecidas e a falta de confiabilidade de grandes modelos de linguagem.
“Foi muito surpreendente ver a implantação repentina dessas ferramentas… estamos questionando se esses modelos de IA podem ser bem-sucedidos em qualquer ambiente militar devido ao quão falhos eles são.”
A corrida armamentista da IA
O Departamento de Guerra dos EUA está a investir ativamente em estratégias de aceleração da IA, incluindo um orçamento de 650 milhões de dólares para inovação militar em 2025. Este financiamento apoiará o desenvolvimento de sistemas anti-drones alimentados por IA, a expansão das capacidades de IA no Comando Cibernético e até mesmo a aceleração de missões nucleares de segurança nacional. O departamento também criou o genai.mil, um banco de dados que fornece aos burocratas acesso a chatbots de IA, como o Gemini do Google e o Grok do xAI.
Esta rápida adoção é alimentada por um sentido de urgência: a IA é vista como uma tecnologia crucial para manter o domínio americano. Giorgos Verdi, pesquisador político do Conselho Europeu de Relações Exteriores, enfatiza que os EUA veem a IA como uma “tecnologia muito valiosa” que os manterá à frente dos concorrentes.
O risco da automação
Apesar dos riscos, os militares dos EUA estão a proceder a testes em tempo real de sistemas de IA, incluindo uma parceria de 200 milhões de dólares com a Antthropic para promover a segurança nacional. Isto levanta preocupações éticas, uma vez que estes sistemas estão a ser implantados em cenários do mundo real que envolvem vidas humanas. Os militares reconhecem que o objectivo final pode incluir sistemas de armas totalmente autónomos.
“Há definitivamente um interesse em pelo menos ter a opção de desenvolver armas totalmente autônomas habilitadas para IA e potencialmente fazer uso delas.”
Uma transição desafiadora
O Departamento de Guerra já enfrenta desafios, uma vez que a Anthropic se recusou a conceder aos militares acesso irrestrito à sua tecnologia devido a preocupações com a vigilância em massa e o desenvolvimento de armas autónomas. Os militares estão agora a fazer a transição para OpenAI, indicando que os EUA continuarão a utilizar chatbots de IA, apesar dos riscos.
A inteligência recolhida por Claude provavelmente permanecerá no departamento e será utilizada pelo próximo fornecedor de IA, garantindo a continuidade das operações. Os especialistas alertam que esta rápida adoção poderá levar a uma maior erosão das barreiras éticas, acelerando potencialmente o desenvolvimento de sistemas de armas totalmente automatizados.
Conclusão: A integração da IA pelas forças militares dos EUA está a acontecer mais rapidamente do que muitos especialistas previram, impulsionada pela competição geopolítica e pela vontade de aceitar riscos. Esta tendência levanta questões críticas sobre o futuro da guerra, a ética das armas autónomas e o potencial de escalada do conflito.





















