Anthropic, un importante laboratorio de inteligencia artificial, ha negado con vehemencia las acusaciones de que podría alterar o desactivar intencionalmente su modelo Claude AI si el gobierno de Estados Unidos lo despliega para uso militar. La disputa se produce cuando el Pentágono intenta prohibir la tecnología de Anthropic por preocupaciones sobre una posible interferencia en operaciones críticas.

El núcleo del conflicto

El Departamento de Defensa (DoD) ha calificado a Anthropic como un “riesgo para la cadena de suministro”, impidiendo efectivamente su uso, incluso a través de contratistas. Esta acción surge del temor de que Anthropic pueda cerrar unilateralmente el acceso a Claude, alterar su funcionalidad o enviar actualizaciones dañinas si no está de acuerdo con ciertas aplicaciones militares. El Departamento de Defensa sostiene que tales acciones podrían poner en peligro las operaciones activas.

El jefe del sector público de Anthropic, Thiyagu Ramasamy, afirma que la empresa carece de la capacidad técnica para sabotear su propia tecnología una vez implementada. En un expediente judicial, Ramasamy afirmó que Anthropic “no tiene el acceso necesario para desactivar la tecnología o alterar el comportamiento del modelo antes o durante las operaciones en curso”. Hizo hincapié en que no existe ninguna “puerta trasera” o “interruptor de apagado”, y cualquier actualización requeriría la aprobación tanto del gobierno como del proveedor de nube Amazon Web Services.

Batallas legales e implicaciones financieras

Anthropic ha presentado dos demandas impugnando la prohibición del Departamento de Defensa por considerarla inconstitucional. La empresa solicitó una orden de emergencia para revertir la decisión, pero las negociaciones fracasaron a pesar de la voluntad de Anthropic de garantizar contractualmente que no vetaría la toma de decisiones militares legales. El Pentágono sigue siendo escéptico y afirma que está “tomando medidas adicionales para mitigar el riesgo de la cadena de suministro” trabajando con proveedores de nube para evitar cambios unilaterales por parte de Anthropic.

Las consecuencias de la prohibición ya son evidentes: los clientes cancelan ofertas. Anthropic afirma que la disputa podría costarle a la empresa miles de millones en ingresos. Está prevista una audiencia judicial para el 24 de marzo, en la que un juez podrá pronunciarse sobre una revocación temporal de la prohibición.

El contexto más amplio

Este conflicto pone de relieve la creciente tensión entre los desarrolladores de IA y los intereses de seguridad nacional. El Pentágono ha estado utilizando a Claude para analizar datos, redactar memorandos e incluso ayudar a generar planes de batalla. La preocupación del gobierno no es infundada: otros laboratorios de IA, como OpenAI, inicialmente prohibieron el uso militar antes de permitirlo a través de asociaciones con Microsoft. Mientras tanto, empresas como Smack Technologies ya están entrenando modelos explícitamente para operaciones en el campo de batalla.

El incidente subraya una pregunta crítica: ¿hasta qué punto las empresas privadas de inteligencia artificial deberían tener control sobre la tecnología implementada en contextos de seguridad nacional? El debate se extiende más allá de Anthropic, ya que la industria de la IA en general se enfrenta a las implicaciones éticas y estratégicas de las aplicaciones militares.

En última instancia, la disputa entre Anthropic y el Pentágono sirve como advertencia de que la integración de la IA en la guerra está plagada de incertidumbre y riesgo, lo que exige una cuidadosa consideración tanto de las capacidades tecnológicas como de los posibles conflictos de intereses.