Silicon Valley se está poniendo cada vez más del lado de Anthropic, una startup de inteligencia artificial, en un creciente enfrentamiento con el presidente Trump y el Pentágono sobre los límites éticos y operativos de la inteligencia artificial en aplicaciones militares. La disputa se centra en la negativa de Anthropic a permitir el uso ilimitado de su tecnología, específicamente en lo que respecta a la vigilancia de ciudadanos estadounidenses y el despliegue en sistemas de armas autónomos.

Oposición de la industria tecnológica al uso ilimitado de la IA

La resistencia no se limita únicamente a Anthropic. Más de 100 empleados de Google firmaron una petición exigiendo que la empresa rechace el cumplimiento del Pentágono en ciertos proyectos militares de IA. Los empleados de Amazon y Microsoft se hicieron eco de estas preocupaciones en una carta abierta separada, instando a los líderes a mantener límites estrictos a las aplicaciones militares de la IA. El argumento central de los tecnólogos de todo Silicon Valley es que la IA no debe utilizarse como arma para la vigilancia masiva ni utilizarse de manera que pueda erosionar los principios democráticos.

La postura antrópica del CEO y las represalias de Trump

Dario Amodei, director ejecutivo de Anthropic, ha manifestado públicamente su oposición al uso de la inteligencia artificial de la compañía para vigilancia o armas autónomas, argumentando que socavaría los valores democráticos en lugar de defenderlos. Esta posición ha generado duras críticas por parte de la administración Trump. El propio presidente calificó a Anthropic de “empresa de inteligencia artificial de izquierda radical”, mientras que el secretario de Defensa, Pete Hegseth, acusó a la startup de ser un “riesgo para la cadena de suministro”, una medida que podría efectivamente cortar los contratos federales.

Cambio en la dinámica de Silicon Valley

Este conflicto marca un cambio notable en la relación de Silicon Valley con la administración Trump. La industria, que anteriormente se consideraba que cumplía en gran medida con las iniciativas gubernamentales, ahora está desafiando abiertamente las restricciones a la ética de la IA. El apoyo a Anthropic ha pasado de susurros iniciales a una oposición vocal generalizada, con líderes e ingenieros de empresas rivales uniéndose a la refriega.

Esta disputa resalta la creciente tensión entre la innovación tecnológica y el control gubernamental, particularmente en lo que respecta al potencial de la IA para violar la seguridad nacional y las libertades civiles. La pregunta central sigue siendo: ¿quién decide cómo se utiliza la IA y qué salvaguardas existen para evitar su uso indebido?