Le gouvernement américain a officiellement désigné Anthropic, une société leader dans le domaine de l’intelligence artificielle, comme un risque « inacceptable » pour la sécurité nationale. Cette décision découle des craintes que l’entreprise puisse potentiellement manipuler sa technologie d’IA – y compris son populaire chatbot Claude – pour donner la priorité à ses propres intérêts plutôt qu’aux objectifs stratégiques américains, en particulier dans un scénario de conflit.

Préoccupations du gouvernement concernant la manipulation de l’IA

Dans un dossier judiciaire de 40 pages soumis au tribunal de district américain du district nord de Californie, les avocats du gouvernement ont fait valoir que les systèmes d’IA sont « extrêmement vulnérables à la manipulation ». Accorder à Anthropic l’accès aux infrastructures du ministère de la Défense (DoD), affirment-ils, introduirait des vulnérabilités inacceptables dans les chaînes d’approvisionnement militaires. Le dossier souligne que le contrôle d’Anthropic sur sa technologie crée un risque de désactiver ou de modifier les systèmes d’une manière préjudiciable aux capacités de guerre des États-Unis.

Réponse d’Anthropic et bataille juridique en cours

Anthropic a publiquement réfuté ces affirmations, citant les déclarations du PDG Dario Amodei, qui a souligné que les décisions militaires sur l’utilisation de l’IA incombaient aux forces armées et non à son entreprise. Amodei a déclaré qu’Anthropic ne s’est jamais opposé ni limité aux opérations militaires impliquant sa technologie.

Cependant, la position du gouvernement a déclenché des poursuites judiciaires. On March 9th, Anthropic filed two lawsuits challenging Defense Secretary Pete Hegseth’s recent designation of the company as a “supply chain risk” – one in the California district court and another in the U.S. Court of Appeals for the District of Columbia Circuit.

### Pourquoi c’est important : le contexte plus large

Ce différend souligne une tension croissante entre le développement rapide de l’IA et les considérations de sécurité nationale. Les gouvernements du monde entier scrutent de plus en plus les sociétés d’IA, en particulier celles qui ont accès à des systèmes militaires ou gouvernementaux sensibles. Cette affaire met en évidence les risques inhérents au recours à une infrastructure d’IA sous contrôle privé pour les applications critiques de défense.

La décision du gouvernement américain signale une tendance plus large vers une surveillance plus stricte des chaînes d’approvisionnement en IA, ce qui pourrait conduire à des réglementations plus strictes pour les entreprises d’IA opérant dans les domaines de la sécurité nationale. L’issue des contestations judiciaires d’Anthropic créera probablement un précédent quant à la manière dont les gouvernements géreront les risques liés à l’IA à l’avenir.

La situation est encore compliquée par le fait que le gouvernement utilise le terme « Département de la Guerre » au lieu de « Département de la Défense », une préférence de l’administration Trump, ajoutant une autre couche de contexte politique au différend.

En fin de compte, l’évaluation par le gouvernement américain de l’anthropique comme risque pour la sécurité nationale représente un tournant critique dans l’évolution de la relation entre la technologie de l’IA et les stratégies de défense.