Anthropic, een toonaangevend laboratorium voor kunstmatige intelligentie, heeft met klem de beschuldigingen ontkend dat het opzettelijk zijn Claude AI-model zou kunnen verstoren of uitschakelen als het door de Amerikaanse regering voor militair gebruik zou worden ingezet. Het geschil komt op het moment dat het Pentagon stappen onderneemt om de technologie van Anthropic te verbieden vanwege zorgen over mogelijke inmenging in kritieke operaties.

De kern van het conflict

Het ministerie van Defensie (DoD) heeft Anthropic bestempeld als een ‘toeleveringsketenrisico’, waardoor het gebruik ervan effectief wordt verhinderd, ook via aannemers. Deze actie komt voort uit de vrees dat Anthropic eenzijdig de toegang tot Claude zou kunnen afsluiten, de functionaliteit ervan zou kunnen wijzigen of schadelijke updates zou kunnen pushen als het het niet eens zou zijn met bepaalde militaire toepassingen. Het DoD stelt dat dergelijke acties actieve operaties in gevaar kunnen brengen.

Het hoofd van de publieke sector van Anthropic, Thiyagu Ramasamy, beweert dat het bedrijf niet over de technische capaciteit beschikt om zijn eigen technologie te saboteren zodra deze wordt ingezet. In een rechtszaak verklaarde Ramasamy dat Anthropic “niet de toegang heeft die nodig is om de technologie uit te schakelen of het gedrag van het model te veranderen voor of tijdens lopende operaties.” Hij benadrukte dat er geen ‘achterdeur’ of ‘kill switch’ bestaat en dat voor eventuele updates goedkeuring van zowel de overheid als cloudprovider Amazon Web Services vereist is.

Juridische strijd en financiële implicaties

Anthropic heeft twee rechtszaken aangespannen waarin het verbod van het Ministerie van Defensie als ongrondwettelijk wordt betwist. Het bedrijf verzocht om een ​​noodbevel om het besluit terug te draaien, maar de onderhandelingen mislukten ondanks de bereidheid van Anthropic om contractueel te garanderen dat het geen veto zou uitspreken over wettige militaire besluitvorming. Het Pentagon blijft sceptisch en stelt dat het “aanvullende maatregelen neemt om het risico van de toeleveringsketen te beperken” door samen te werken met cloudproviders om eenzijdige veranderingen door Anthropic te voorkomen.

De gevolgen van het verbod zijn al duidelijk: klanten annuleren deals. Anthropic beweert dat het geschil het bedrijf miljarden aan inkomsten zou kunnen kosten. Op 24 maart is een rechtszitting gepland, waar een rechter kan beslissen over een tijdelijke ongedaanmaking van het verbod.

De bredere context

Dit conflict benadrukt de groeiende spanning tussen AI-ontwikkelaars en nationale veiligheidsbelangen. Het Pentagon gebruikt Claude om gegevens te analyseren, memo’s op te stellen en zelfs te helpen bij het opstellen van gevechtsplannen. De bezorgdheid van de regering is niet ongegrond: andere AI-laboratoria, zoals OpenAI, verboden aanvankelijk militair gebruik voordat dit via Microsoft-partnerschappen werd toegestaan. Ondertussen trainen bedrijven als Smack Technologies al expliciet modellen voor operaties op het slagveld.

Het incident onderstreept een cruciale vraag: in hoeverre moeten particuliere AI-bedrijven controle hebben over technologie die wordt ingezet in nationale veiligheidscontexten? Het debat reikt verder dan Antropisch, omdat de bredere AI-industrie worstelt met ethische en strategische implicaties van militaire toepassingen.

Uiteindelijk dient het dispuut tussen Anthropic en het Pentagon als een waarschuwing dat de integratie van AI in oorlogsvoering vol onzekerheid en risico’s is, en vereist een zorgvuldige afweging van zowel technologische mogelijkheden als potentiële belangenconflicten.