El Departamento de Defensa de EE. UU. (DoD) está bajo fuego por supuestamente castigar a Anthropic, una empresa de inteligencia artificial, después de que intentó restringir el uso militar de sus herramientas de inteligencia artificial. Una jueza de distrito estadounidense, Rita Lin, expresó su preocupación durante una audiencia judicial el martes porque las acciones del Departamento de Defensa parecían ser un “intento de paralizar” a Anthropic, violando potencialmente los derechos de la empresa bajo la Primera Enmienda.
Disputa sobre el despliegue militar de IA
Anthropic ha presentado dos demandas federales, alegando que el Departamento de Defensa tomó represalias contra ellos al designar a la empresa como un riesgo para la seguridad después de que presionó para imponer limitaciones sobre cómo el ejército podía utilizar su IA. Esta designación efectivamente dificulta que Anthropic haga negocios con contratistas gubernamentales, incluso aquellos que trabajan en proyectos no relacionados con la defensa.
El Departamento de Defensa, que ahora se refiere a sí mismo como Departamento de Guerra (DoW), argumenta que sus acciones se tomaron después de determinar que ya no se podía confiar en que las herramientas de inteligencia artificial de Anthropic funcionaran de manera confiable durante operaciones críticas. Sin embargo, el juez Lin cuestionó si las medidas punitivas (una designación típicamente reservada para adversarios extranjeros y actores hostiles) eran proporcionales a las preocupaciones de seguridad nacional declaradas.
Batalla legal y escrutinio público
Anthropic busca una orden judicial temporal para suspender la designación de seguridad, con la esperanza de tranquilizar a los clientes que dudan en continuar trabajando con la empresa en las condiciones actuales. Se espera que el juez Lin se pronuncie sobre esta orden judicial en unos días.
La disputa ha provocado un debate más amplio sobre el uso cada vez mayor de la IA por parte de las fuerzas armadas y si las empresas de tecnología deberían ceder ante el gobierno la determinación de cómo se implementan sus tecnologías. Las acciones del Departamento de Defensa plantean dudas sobre el equilibrio entre la seguridad nacional y la autonomía corporativa en la era del rápido avance de la IA.
Autoridad cuestionable y escalada
Durante la audiencia, un abogado de la administración Trump admitió que el secretario Pete Hegseth no tenía autoridad legal para prohibir a los contratistas militares usar Anthropic para trabajos ajenos al Departamento de Defensa, a pesar de que Hegseth publicó tanto en X (anteriormente Twitter) el mes pasado. Esta admisión alimenta aún más las sospechas de que las acciones del Departamento de Defensa fueron motivadas por represalias y no por preocupaciones legítimas de seguridad.
El Pentágono afirma estar alejándose de las tecnologías de Anthropic, con planes de reemplazarlas con alternativas de Google, OpenAI y xAI, mientras implementa medidas para evitar que Anthropic altere sus modelos de IA durante el cambio. La empresa cuestiona esta afirmación y afirma que no puede actualizar sus modelos sin el permiso del Pentágono.
Lo que está en juego
El caso pone de relieve la compleja relación entre las empresas de tecnología privadas y las agencias gubernamentales en el desarrollo y despliegue de la IA. Si Anthropic tiene éxito en su desafío legal, podría sentar un precedente sobre cómo el gobierno trata a las empresas de inteligencia artificial que rechazan las aplicaciones militares de sus tecnologías. También se espera pronto un fallo del tribunal federal de apelaciones en Washington, DC, que podría aclarar aún más los límites legales de este conflicto.
La situación subraya que a medida que la IA se integre más en la seguridad nacional, la cuestión de la influencia corporativa y la extralimitación del gobierno se volverán más críticas.























