Juiz dos EUA questiona a natureza punitiva da proibição governamental da empresa de IA Anthropic

0
5

Um juiz federal dos EUA expressou fortes preocupações de que a lista negra do governo da Anthropic, uma empresa de inteligência artificial, pareça ser punitiva e não baseada em riscos legítimos à segurança nacional. O caso centra-se na recusa da Anthropic em conceder ao Pentágono acesso militar irrestrito ao seu modelo Claude AI, uma decisão que desencadeou uma acção retaliatória por parte da administração Trump.

Disputa sobre acesso militar irrestrito

O conflito começou quando a Anthropic se opôs publicamente a permitir que a sua IA fosse usada em sistemas de armas letais autónomos sem supervisão humana e vigilância em massa de cidadãos americanos. Em fevereiro, o presidente Trump e o secretário de Defesa Pete Hegseth anunciaram o rompimento dos laços com a empresa, levando a uma designação governamental rotulando a Antrópico como um “risco da cadeia de suprimentos para a segurança nacional” e a uma proibição imediata de agências federais que usam seu modelo Claude.

Este movimento é altamente incomum; normalmente, tais designações são reservadas para entidades estrangeiras. De acordo com o cientista da computação Ben Goertzel, CEO da SingularityNet, a ação do governo demonstra uma capacidade perturbadora de reinterpretar as leis à vontade. Se for totalmente aplicada, a designação poderia efetivamente impedir a Anthropic de vender software a qualquer empresa envolvida em contratos governamentais, embora Goertzel observe que a empresa poderia prosperar fora dessas parcerias.

Preocupações da Primeira Emenda e Desafios Legais

A Anthropic entrou com duas ações judiciais contra o governo, contestando a designação de risco da cadeia de abastecimento e alegando uma violação do direito à liberdade de expressão da Primeira Emenda. Numa audiência na terça-feira, a juíza distrital Rita F. Lin questionou abertamente se a proibição era uma retribuição pelas críticas públicas da empresa à posição do Pentágono. Ela afirmou que as ações do governo “parecem uma tentativa de paralisar a Antrópica”.

O advogado do governo insistiu que a decisão se baseou apenas no potencial uso indevido da IA ​​da Anthropic, e não na posição pública da empresa. No entanto, o juiz Lin levantou dúvidas, questionando se o Pentágono agiu legalmente ao proibir as agências de utilizarem os produtos da Anthropic, depois de o secretário da Defesa, Hegseth, ter instado as empresas a cortarem relações com a empresa de IA.

Implicações mais amplas para a indústria de IA

O caso traz implicações significativas para a indústria de IA. Se as ações da administração Trump forem mantidas, isso poderia desencorajar outras empresas de desafiar as exigências do governo, forçando efetivamente o cumprimento através da coerção. A decisão poderia abrir um precedente para o excesso executivo no controle do desenvolvimento e implantação de IA.

O juiz Lin espera emitir uma decisão nos próximos dias sobre a suspensão temporária da proibição enquanto o tribunal examina o caso mais detalhadamente. O resultado será observado de perto, pois poderá remodelar a relação entre as empresas de IA e o governo dos EUA, determinando se a liberdade de expressão e os limites éticos podem coexistir com as preocupações de segurança nacional.

O caso destaca uma tensão crescente entre o controlo governamental e a autonomia do sector privado no campo em rápida evolução da inteligência artificial. O cepticismo do juiz sugere uma vontade de escrutinar o poder executivo, mas a decisão final determinará se as empresas de IA devem alinhar-se com agendas políticas para sobreviver.

Previous articleOs melhores fones de ouvido de 2026: um guia completo