El gobierno de Estados Unidos ha designado formalmente a Anthropic, una empresa líder en inteligencia artificial, como un riesgo “inaceptable” para la seguridad nacional. Esta decisión surge de la preocupación de que la empresa pueda manipular su tecnología de inteligencia artificial (incluido su popular chatbot Claude) para priorizar sus propios intereses sobre los objetivos estratégicos de Estados Unidos, particularmente en un escenario de conflicto.

Preocupaciones del gobierno por la manipulación de la IA

En un expediente judicial de 40 páginas presentado ante el Tribunal de Distrito de los Estados Unidos para el Distrito Norte de California, los abogados del gobierno argumentaron que los sistemas de inteligencia artificial son “muy vulnerables a la manipulación”. Sostienen que otorgar acceso a Anthropic a la infraestructura del Departamento de Defensa (DoD) introduciría vulnerabilidades inaceptables en las cadenas de suministro militares. La presentación destacó que el control de Anthropic sobre su tecnología crea un riesgo de que pueda desactivar o alterar los sistemas de manera perjudicial para las capacidades de guerra de Estados Unidos.

La respuesta de Anthropic y la batalla legal en curso

Anthropic ha respondido públicamente a estas afirmaciones, citando declaraciones del director ejecutivo Dario Amodei, quien enfatizó que las decisiones militares sobre el uso de la IA recaen en las fuerzas armadas, no en su empresa. Amodei afirmó que Anthropic nunca se ha opuesto ni ha limitado las operaciones militares que involucran su tecnología.

Sin embargo, la postura del gobierno ha desencadenado acciones legales. El 9 de marzo, Anthropic presentó dos demandas impugnando la reciente designación de la empresa por parte del Secretario de Defensa, Pete Hegseth, como un “riesgo para la cadena de suministro”, una en el tribunal de distrito de California y otra en el Tribunal de Apelaciones de los Estados Unidos para el Circuito del Distrito de Columbia.

Por qué esto es importante: el contexto más amplio

Esta disputa subraya una tensión creciente entre el rápido desarrollo de la IA y las consideraciones de seguridad nacional. Los gobiernos de todo el mundo están examinando cada vez más a las empresas de inteligencia artificial, en particular aquellas con acceso a sistemas militares o gubernamentales sensibles. El caso destaca los riesgos inherentes de depender de una infraestructura de IA controlada de forma privada en aplicaciones críticas de defensa.

La medida del gobierno de Estados Unidos señala una tendencia más amplia hacia una supervisión más estricta de las cadenas de suministro de IA, lo que podría conducir a regulaciones más estrictas para las empresas de IA que operan dentro de dominios de seguridad nacional. El resultado de los desafíos legales de Anthropic probablemente sentará un precedente sobre cómo los gobiernos gestionarán los riesgos de la IA en el futuro.

La situación se complica aún más por el hecho de que el gobierno utiliza el término “Departamento de Guerra” en lugar de “Departamento de Defensa”, una preferencia de la administración Trump, lo que añade otra capa de contexto político a la disputa.

En última instancia, la evaluación por parte del gobierno de Estados Unidos de Anthropic como un riesgo para la seguridad nacional representa un punto crítico en la evolución de la relación entre la tecnología de inteligencia artificial y las estrategias de defensa.