Un juge fédéral a temporairement empêché le ministère américain de la Défense de désigner Anthropic, le développeur d’IA à l’origine du chatbot Claude, comme présentant un risque pour la chaîne d’approvisionnement. La décision, rendue jeudi par la juge Rita Lin à San Francisco, met effectivement sur pause les efforts du Pentagone visant à restreindre l’accès d’Anthropic aux contrats gouvernementaux et pourrait permettre à l’entreprise de reprendre des affaires avec les agences fédérales.

Pourquoi c’est important : IA et sécurité nationale

La décision du Pentagone contre Anthropic découle de désaccords sur les restrictions d’utilisation que la société d’IA a imposées à sa technologie. L’administration Trump a considéré ces limites comme inacceptables, ce qui a conduit à une désignation qui a effectivement écarté Anthropic des accords gouvernementaux lucratifs. Cette affaire met en évidence une tension croissante : quel degré de contrôle le gouvernement devrait-il avoir sur le développement privé de l’IA, en particulier lorsqu’il s’agit d’applications militaires ? Le différend ne concerne pas seulement une entreprise ; il s’agit d’un test pour une réglementation plus large de l’IA et des préoccupations en matière de sécurité nationale.

La décision : un sursis temporaire

Le juge Lin a estimé que la désignation du Pentagone était « probablement à la fois contraire à la loi et arbitraire et capricieuse ». Elle a soutenu que le gouvernement n’avait fourni aucune raison valable de supposer qu’Anthropic saboterait sa propre technologie simplement parce qu’il voulait contrôler la manière dont elle était utilisée. L’injonction rétablit les conditions du 27 février, avant l’imposition des restrictions, permettant à Anthropic de continuer à fonctionner comme avant pendant que la bataille juridique se poursuit.

Quelle est la prochaine étape ?

Le Pentagone reste libre d’annuler les contrats avec Anthropic ou d’encourager ses partenaires à abandonner ses outils, mais il ne peut désormais plus officiellement citer l’étiquette de risque lié à la chaîne d’approvisionnement comme justification. Anthropic peut tirer parti de cette décision pour rassurer les clients inquiets de travailler avec un fournisseur figurant sur une liste noire. Cependant, une deuxième action en justice intentée par Anthropic est toujours en cours devant un tribunal de Washington, DC, et le Pentagone pourrait encore emprunter des voies juridiques alternatives.

“Cette décision n’empêche pas le ministère de la Guerre de passer à d’autres fournisseurs d’intelligence artificielle, tant que ces actions sont conformes aux réglementations applicables”, a écrit le juge Lin, soulignant la nature limitée des secours immédiats.

L’issue à long terme reste incertaine, mais la décision du juge témoigne d’une volonté d’examiner les tactiques agressives du gouvernement dans la réglementation de l’industrie de l’IA.

En bref, Anthropic a gagné du temps, mais le conflit plus large entre les développeurs privés d’IA et le contrôle gouvernemental est loin d’être terminé.