Le ministère américain de la Défense (DoD) est sous le feu des critiques pour avoir prétendument puni Anthropic, une société d’intelligence artificielle, après avoir tenté de restreindre l’utilisation militaire de ses outils d’IA. Mardi, lors d’une audience au tribunal, une juge de district américaine, Rita Lin, a exprimé son inquiétude quant au fait que les actions du DoD semblaient être une « tentative de paralyser » Anthropic, violant potentiellement les droits de l’entreprise liés au premier amendement.

Différend sur le déploiement de l’IA militaire

Anthropic a intenté deux poursuites fédérales, affirmant que le DoD avait exercé des représailles contre eux en désignant l’entreprise comme un risque pour la sécurité après avoir fait pression pour limiter la manière dont son IA pouvait être utilisée par l’armée. Cette désignation rend effectivement plus difficile pour Anthropic de faire affaire avec des entrepreneurs gouvernementaux, même ceux travaillant sur des projets non liés à la défense.

Le DoD, qui se présente désormais sous le nom de Département de la Guerre (DoW), affirme que ses mesures ont été prises après avoir déterminé qu’on ne pouvait plus faire confiance aux outils d’IA d’Anthropic pour fonctionner de manière fiable lors d’opérations critiques. Cependant, le juge Lin s’est demandé si les mesures punitives – une désignation généralement réservée aux adversaires étrangers et aux acteurs hostiles – étaient proportionnelles aux préoccupations exprimées en matière de sécurité nationale.

Bataille juridique et examen public

Anthropic demande une injonction temporaire pour suspendre la désignation de sécurité, dans l’espoir de rassurer les clients qui hésitent à continuer à travailler avec l’entreprise dans les conditions actuelles. La décision du juge Lin sur cette injonction est attendue d’ici quelques jours.

Le différend a déclenché un débat plus large sur l’utilisation croissante de l’IA par les forces armées et sur la question de savoir si les entreprises technologiques devraient s’en remettre au gouvernement pour déterminer la manière dont leurs technologies sont déployées. Les actions du DoD soulèvent des questions sur l’équilibre entre la sécurité nationale et l’autonomie des entreprises à l’ère des progrès rapides de l’IA.

Autorité douteuse et escalade

Au cours de l’audience, un avocat de l’administration Trump a admis que le secrétaire Pete Hegseth n’avait aucune autorité légale pour interdire aux entrepreneurs militaires d’utiliser Anthropic pour des travaux non liés au DoD, bien que Hegseth en ait publié autant sur X (anciennement Twitter) le mois dernier. Cet aveu alimente encore davantage les soupçons selon lesquels les actions du DoD étaient motivées par des représailles plutôt que par des préoccupations légitimes en matière de sécurité.

Le Pentagone prétend s’éloigner des technologies d’Anthropic, avec l’intention de les remplacer par des alternatives de Google, OpenAI et xAI, tout en mettant en œuvre des mesures pour empêcher Anthropic de falsifier ses modèles d’IA pendant ce changement. La société conteste cette affirmation, affirmant qu’elle ne peut pas mettre à jour ses modèles sans l’autorisation du Pentagone.

Les enjeux

Cette affaire met en évidence la relation complexe entre les entreprises technologiques privées et les agences gouvernementales dans le développement et le déploiement de l’IA. Si Anthropic réussit sa contestation judiciaire, cela pourrait créer un précédent dans la manière dont le gouvernement traite les entreprises d’IA qui s’opposent aux applications militaires de leurs technologies. Une décision de la cour d’appel fédérale de Washington, DC, est également attendue prochainement, ce qui pourrait clarifier davantage les limites juridiques de ce conflit.

La situation souligne qu’à mesure que l’IA s’intègre davantage à la sécurité nationale, la question de l’influence des entreprises et de la portée excessive du gouvernement ne fera que devenir plus critique.