Les efforts du gouvernement américain pour intégrer l’intelligence artificielle dans les opérations militaires créent un dilemme difficile pour les entreprises d’IA : donner la priorité aux normes de sécurité ou obtenir des contrats de défense lucratifs. Cette tension a atteint son paroxysme récemment lorsque le Pentagone a scruté Anthropic, une société leader dans le domaine de l’IA, pour sa réticence à participer pleinement à certaines « opérations mortelles », mettant potentiellement en péril un contrat de 200 millions de dollars. Cela envoie un message clair aux autres entreprises – OpenAI, xAI et Google – qui travaillent actuellement avec le ministère de la Défense sur des projets non classifiés : une conformité totale est attendue si elles demandent des habilitations de sécurité de haut niveau.

Les enjeux sont supérieurs aux profits

La situation n’est pas seulement une question d’argent. L’engagement d’Anthropic en faveur de la sécurité de l’IA, une position rare dans l’industrie, l’a mis en contradiction avec la politique de l’administration de développement sans restriction de l’IA militaire. Des rapports suggèrent que l’entreprise pourrait même être qualifiée de « risque de chaîne d’approvisionnement » – une désignation généralement réservée aux entités liées à des pays adversaires comme la Chine. Cela empêcherait effectivement les entreprises de défense d’utiliser l’IA d’Anthropic, les obligeant à rechercher des alternatives avec moins de scrupules éthiques.

Le cœur de la question est de savoir si la poursuite de la sécurité nationale justifie de compromettre les principes mêmes que de nombreux développeurs d’IA prétendent défendre. Le Pentagone ne veut pas entendre parler d’« exclusions » ou de « distinctions juridiques » lorsqu’il s’agit d’applications mortelles. Comme l’a déclaré sans détour un responsable, les entreprises d’IA doivent s’engager à « faire tout ce qu’il faut pour gagner ». Cela soulève une question inquiétante : les exigences gouvernementales en matière d’utilisation militaire rendront-elles intrinsèquement l’IA moins sûre ?

Le paradoxe de la sécurité et de la guerre

Les dirigeants de l’IA eux-mêmes reconnaissent la puissance sans précédent de la technologie. De nombreuses entreprises ont été fondées sur le principe de parvenir à l’intelligence artificielle générale (AGI) – la superintelligence – tout en évitant des dommages généralisés. Elon Musk, autrefois un ardent défenseur de la réglementation de l’IA, a cofondé OpenAI par crainte qu’un développement incontrôlé ne soit catastrophique.

Anthropic s’est distingué en intégrant profondément des garde-fous de sécurité dans ses modèles, visant à empêcher toute exploitation par des acteurs malveillants. Cela correspond aux principes éthiques énoncés il y a des décennies par Isaac Asimov dans ses lois de la robotique : l’IA ne devrait pas nuire aux humains. Cependant, l’insistance du Pentagone sur une utilisation militaire sans restriction sape ce fondement même.

Une course aux armements inévitable ?

Les États-Unis pourraient utiliser leur avantage en matière d’IA contre des adversaires comme le Venezuela avec une relative impunité, mais des adversaires sophistiqués développeront inévitablement leurs propres systèmes d’IA pour la sécurité nationale. Cela déclenchera une véritable course aux armements, les gouvernements donnant la priorité à la domination militaire plutôt qu’aux considérations éthiques. L’administration semble disposée à redéfinir les frontières juridiques pour justifier des pratiques douteuses, rendant inutiles les entreprises d’IA qui insistent sur les normes de sécurité.

Cet état d’esprit sape les efforts visant à créer une IA sûre. Développer des versions létales et non létales de la même technologie est intrinsèquement contradictoire. Les discussions autrefois sérieuses sur les organismes internationaux réglementant les utilisations nocives de l’IA se sont estompées, remplacées par la sombre réalité selon laquelle l’avenir de la guerre est inextricablement lié à l’IA.

Les implications à long terme sont effrayantes. Si les entreprises d’IA et les gouvernements ne parviennent pas à contenir le potentiel de violence de la technologie, l’avenir de l’IA elle-même pourrait devenir plus agressif et imprévisible. La question n’est pas de savoir si l’IA va changer la guerre ; il s’agit de savoir si la guerre va corrompre l’IA.

En fin de compte, la domination de la technologie numérique remodèle l’humanité de manière irrévocable. Même si les régimes politiques peuvent s’élever et s’effondrer, l’essor de l’IA est une force qui survivra même aux dirigeants les plus puissants. Le véritable champ de bataille ne se situe désormais pas seulement entre les nations, mais aussi entre les idéaux de sécurité et les exigences du pouvoir absolu.