El impulso del gobierno de Estados Unidos para integrar la inteligencia artificial en las operaciones militares está creando un duro dilema para las empresas de IA: priorizar los estándares de seguridad o asegurar lucrativos contratos de defensa. Esta tensión llegó a un punto crítico recientemente cuando el Pentágono examinó a Anthropic, una empresa líder en inteligencia artificial, por su renuencia a participar plenamente en ciertas “operaciones mortales”, lo que podría poner en peligro un contrato de 200 millones de dólares. Esto envía un mensaje claro a otras empresas (OpenAI, xAI y Google) que actualmente trabajan con el Departamento de Defensa en proyectos no clasificados: se espera un cumplimiento total si buscan autorizaciones de seguridad de alto nivel.

Lo que está en juego es mayor que las ganancias

La situación no se trata simplemente de dinero. El compromiso de Anthropic con la seguridad de la IA, una postura poco común en la industria, la ha puesto en desacuerdo con la política de la administración de desarrollo militar sin restricciones de la IA. Los informes sugieren que la empresa podría incluso ser etiquetada como un “riesgo de la cadena de suministro”, una designación generalmente reservada para entidades vinculadas a naciones adversarias como China. Esto impediría efectivamente que las empresas de defensa utilicen la IA de Anthropic, obligándolas a buscar alternativas con menos escrúpulos éticos.

El meollo de la cuestión es si la búsqueda de la seguridad nacional justifica comprometer los mismos principios que muchos desarrolladores de IA afirman defender. El Pentágono no quiere oír hablar de “excepciones” o “distinciones legales” cuando se trata de aplicaciones letales. Como afirmó sin rodeos un funcionario, las empresas de IA deben comprometerse a “hacer lo que sea necesario para ganar”. Esto plantea una pregunta inquietante: ¿las demandas gubernamentales de uso militar harán inherentemente que la IA sea menos segura?

La paradoja de la seguridad y la guerra

Los propios líderes de la IA reconocen el poder sin precedentes de la tecnología. Muchas empresas se fundaron con la premisa de lograr inteligencia artificial general (AGI, por sus siglas en inglés) –superinteligencia– evitando al mismo tiempo daños generalizados. Elon Musk, que alguna vez fue un firme defensor de la regulación de la IA, cofundó OpenAI por temor a que el desarrollo desenfrenado fuera catastrófico.

Anthropic se ha distinguido por integrar profundamente barreras de seguridad en sus modelos, con el objetivo de evitar la explotación por parte de actores maliciosos. Esto se alinea con los principios éticos articulados hace décadas por Isaac Asimov en sus leyes de la robótica: la IA no debe dañar a los humanos. Sin embargo, la insistencia del Pentágono en el uso militar irrestricto socava esta misma base.

¿Una carrera armamentista inevitable?

Estados Unidos podría ejercer su ventaja en materia de IA contra adversarios como Venezuela con relativa impunidad, pero los oponentes sofisticados inevitablemente desarrollarán sus propios sistemas de IA de seguridad nacional. Esto desencadenará una carrera armamentista en toda regla, en la que los gobiernos darán prioridad al dominio militar por encima de las consideraciones éticas. La administración parece dispuesta a redefinir los límites legales para justificar prácticas cuestionables, haciendo prescindibles las empresas de IA que insisten en estándares de seguridad.

Esta mentalidad socava el esfuerzo por crear una IA segura. Desarrollar versiones letales y no letales de la misma tecnología es inherentemente contradictorio. Las discusiones alguna vez serias sobre los organismos internacionales que regulan los usos nocivos de la IA se han desvanecido, reemplazadas por la sombría realidad de que el futuro de la guerra está indisolublemente ligado a la IA.

Las implicaciones a largo plazo son escalofriantes. Si las empresas y los gobiernos de IA no logran contener el potencial de violencia de la tecnología, el futuro de la IA misma puede volverse más agresivo e impredecible. La pregunta no es si la IA cambiará la guerra; se trata de si la guerra corromperá la IA.

En última instancia, el dominio de la tecnología digital está remodelando a la humanidad de manera irrevocable. Si bien los regímenes políticos pueden surgir y caer, el ascenso de la IA es una fuerza que sobrevivirá incluso a los líderes más poderosos. El verdadero campo de batalla ahora no es sólo entre naciones, sino entre los ideales de seguridad y las demandas del poder absoluto.