Un juez federal de Estados Unidos ha expresado su gran preocupación de que la inclusión por parte del gobierno de Anthropic, una empresa de inteligencia artificial, parezca ser punitiva en lugar de basarse en riesgos legítimos para la seguridad nacional. El caso se centra en la negativa de Anthropic a otorgar al Pentágono acceso militar ilimitado a su modelo Claude AI, una decisión que provocó represalias por parte de la administración Trump.
Disputa sobre el acceso militar sin restricciones
El conflicto comenzó cuando Anthropic se opuso públicamente a permitir que su IA se utilizara en sistemas de armas autónomos letales sin supervisión humana y vigilancia masiva de los ciudadanos estadounidenses. En febrero, el presidente Trump y el secretario de Defensa, Pete Hegseth, anunciaron la ruptura de los vínculos con la empresa, lo que llevó a que el gobierno designara a Anthropic como un “riesgo de la cadena de suministro para la seguridad nacional” y a una prohibición inmediata de que las agencias federales utilicen su modelo Claude.
Este movimiento es muy inusual; normalmente, dichas designaciones están reservadas para entidades extranjeras. Según el informático Ben Goertzel, director ejecutivo de SingularityNet, la acción de la administración demuestra una capacidad inquietante para reinterpretar las leyes a voluntad. Si se aplica plenamente, la designación podría impedir efectivamente que Anthropic venda software a cualquier empresa involucrada en contratos gubernamentales, aunque Goertzel señala que la empresa podría prosperar fuera de esas asociaciones.
Preocupaciones y desafíos legales sobre la Primera Enmienda
Anthropic ha presentado dos demandas contra el gobierno, impugnando la designación de riesgo de la cadena de suministro y alegando una violación de su derecho a la libertad de expresión de la Primera Enmienda. En una audiencia el martes, la jueza de distrito Rita F. Lin cuestionó abiertamente si la prohibición era una represalia por las críticas públicas de la compañía a la posición del Pentágono. Afirmó que las acciones del gobierno “parecen un intento de paralizar a Anthropic”.
El abogado del gobierno insistió en que la decisión se basó únicamente en el posible uso indebido de la IA de Anthropic, no en la postura pública de la empresa. Sin embargo, el juez Lin planteó dudas y cuestionó si el Pentágono actuó legalmente al prohibir a las agencias utilizar los productos de Anthropic después de que el secretario de Defensa, Hegseth, instara a las empresas a cortar los vínculos con la empresa de inteligencia artificial.
Implicaciones más amplias para la industria de la IA
El caso tiene implicaciones importantes para la industria de la IA. Si se mantienen las acciones de la administración Trump, podría desalentar a otras empresas de desafiar las demandas del gobierno, forzando efectivamente el cumplimiento mediante la coerción. El fallo podría sentar un precedente de extralimitación del ejecutivo en el control del desarrollo y despliegue de la IA.
El juez Lin espera emitir un fallo en los próximos días sobre si se debe suspender temporalmente la prohibición mientras el tribunal examina el caso más a fondo. El resultado será observado de cerca, ya que podría remodelar la relación entre las empresas de inteligencia artificial y el gobierno de Estados Unidos, determinando si la libertad de expresión y las fronteras éticas pueden coexistir con las preocupaciones de seguridad nacional.
El caso pone de relieve una tensión creciente entre el control gubernamental y la autonomía del sector privado en el campo de la inteligencia artificial, que evoluciona rápidamente. El escepticismo del juez sugiere una voluntad de examinar el poder ejecutivo, pero la decisión final determinará si las empresas de IA deben alinearse con las agendas políticas para sobrevivir.





















