Anthropic, l’un des principaux laboratoires d’intelligence artificielle, a nié avec véhémence les allégations selon lesquelles il pourrait intentionnellement perturber ou désactiver son modèle Claude AI s’il était déployé à des fins militaires par le gouvernement américain. Le différend survient alors que le Pentagone décide d’interdire la technologie d’Anthropic en raison de préoccupations concernant une interférence potentielle dans des opérations critiques.

Le cœur du conflit

Le ministère de la Défense (DoD) a qualifié Anthropic de « risque pour la chaîne d’approvisionnement », empêchant effectivement son utilisation, y compris par le biais de sous-traitants. Cette action découle des craintes qu’Anthropic puisse fermer unilatéralement l’accès à Claude, modifier ses fonctionnalités ou proposer des mises à jour nuisibles s’il n’était pas d’accord avec certaines applications militaires. Le DoD affirme que de telles actions pourraient compromettre les opérations actives.

Le responsable du secteur public d’Anthropic, Thiyagu Ramasamy, affirme que l’entreprise n’a pas la capacité technique de saboter sa propre technologie une fois déployée. Dans un dossier déposé au tribunal, Ramasamy a déclaré qu’Anthropic “n’a pas l’accès requis pour désactiver la technologie ou modifier le comportement du modèle avant ou pendant les opérations en cours”. Il a souligné qu’il n’existe pas de « porte dérobée » ou de « kill switch » et que toute mise à jour nécessiterait l’approbation du gouvernement et du fournisseur de cloud Amazon Web Services.

Batailles juridiques et implications financières

Anthropic a déposé deux poursuites contestant l’interdiction du DoD comme étant inconstitutionnelle. L’entreprise a demandé une ordonnance d’urgence pour revenir sur la décision, mais les négociations ont échoué malgré la volonté d’Anthropic de garantir contractuellement qu’elle n’opposerait pas son veto à une prise de décision militaire légale. Le Pentagone reste sceptique, affirmant qu’il « prend des mesures supplémentaires pour atténuer le risque lié à la chaîne d’approvisionnement » en travaillant avec les fournisseurs de cloud pour empêcher les changements unilatéraux d’Anthropic.

Les conséquences de l’interdiction sont déjà évidentes, les clients annulant leurs offres. Anthropic affirme que le différend pourrait coûter des milliards de dollars de revenus à l’entreprise. Une audience du tribunal est prévue le 24 mars, au cours de laquelle un juge pourra statuer sur une levée temporaire de l’interdiction.

Le contexte plus large

Ce conflit met en évidence la tension croissante entre les développeurs d’IA et les intérêts de sécurité nationale. Le Pentagone utilise Claude pour analyser des données, rédiger des mémos et même l’aider à générer des plans de bataille. L’inquiétude du gouvernement n’est pas sans fondement : d’autres laboratoires d’IA, comme OpenAI, ont d’abord interdit l’utilisation militaire avant de l’autoriser via des partenariats avec Microsoft. Pendant ce temps, des entreprises comme Smack Technologies forment déjà des modèles explicitement pour les opérations sur le champ de bataille.

L’incident souligne une question cruciale : dans quelle mesure les entreprises privées d’IA devraient-elles contrôler la technologie déployée dans des contextes de sécurité nationale ? Le débat s’étend au-delà d’Anthropic, alors que l’industrie de l’IA au sens large est aux prises avec les implications éthiques et stratégiques des applications militaires.

En fin de compte, le différend entre Anthropic et le Pentagone sert d’avertissement : l’intégration de l’IA dans la guerre est pleine d’incertitudes et de risques, exigeant un examen attentif des capacités technologiques et des conflits d’intérêts potentiels.