De Amerikaanse regering heeft Anthropic, een toonaangevend bedrijf op het gebied van kunstmatige intelligentie, formeel aangemerkt als een “onaanvaardbaar” nationaal veiligheidsrisico. Deze beslissing komt voort uit zorgen dat het bedrijf mogelijk zijn AI-technologie – inclusief de populaire Claude-chatbot – zou kunnen manipuleren om zijn eigen belangen voorrang te geven boven Amerikaanse strategische doelstellingen, vooral in een conflictscenario.

Zorgen van de overheid over AI-manipulatie

In een 40 pagina’s tellend gerechtelijk dossier, ingediend bij de Amerikaanse districtsrechtbank voor het noordelijke district van Californië, betoogden overheidsjuristen dat AI-systemen ‘acuut kwetsbaar zijn voor manipulatie’. Het verlenen van antropische toegang tot de infrastructuur van het Ministerie van Defensie (DoD), zo beweren zij, zou onaanvaardbare kwetsbaarheden in de militaire toeleveringsketens introduceren. De indiening benadrukte dat de controle van Anthropic over zijn technologie een risico met zich meebrengt dat het systemen zou kunnen uitschakelen of wijzigen op manieren die schadelijk zijn voor de Amerikaanse oorlogscapaciteiten.

Reactie van Anthropic en voortdurende juridische strijd

Anthropic heeft deze beweringen publiekelijk tegengesproken, onder verwijzing naar verklaringen van CEO Dario Amodei, die benadrukte dat militaire beslissingen over het gebruik van AI bij de strijdkrachten berusten, en niet bij zijn bedrijf. Amodei verklaarde dat Anthropic nooit bezwaar heeft gemaakt tegen militaire operaties waarbij zijn technologie betrokken is, of deze heeft beperkt.

Het standpunt van de regering heeft echter aanleiding gegeven tot juridische stappen. Op 9 maart heeft Anthropic twee rechtszaken aangespannen tegen de recente aanwijzing door minister van Defensie Pete Hegseth van het bedrijf als een “toeleveringsketenrisico” – één bij de Californische rechtbank en één bij het Amerikaanse Hof van Beroep voor het District of Columbia Circuit.

Waarom dit ertoe doet: de bredere context

Dit geschil onderstreept een groeiende spanning tussen de snelle ontwikkeling van AI en nationale veiligheidsoverwegingen. Overheden over de hele wereld houden AI-bedrijven steeds meer onder de loep, vooral bedrijven die toegang hebben tot gevoelige militaire of overheidssystemen. De zaak benadrukt de inherente risico’s van het vertrouwen op particulier gecontroleerde AI-infrastructuur in kritieke defensietoepassingen.

De stap van de Amerikaanse overheid duidt op een bredere trend in de richting van strenger toezicht op AI-toeleveringsketens, wat mogelijk kan leiden tot strengere regelgeving voor AI-bedrijven die binnen nationale veiligheidsdomeinen opereren. De uitkomst van de juridische uitdagingen van Anthropic zal waarschijnlijk een precedent scheppen voor de manier waarop overheden in de toekomst AI-risico’s zullen beheren.

De situatie wordt verder gecompliceerd door het feit dat de regering de term ‘Department of War’ gebruikt in plaats van ‘Department of Defense’, een voorkeur van de regering-Trump, die een nieuwe laag politieke context aan het dispuut toevoegt.

Uiteindelijk vertegenwoordigt de beoordeling door de Amerikaanse regering van Anthropic als een nationaal veiligheidsrisico een cruciaal moment in de zich ontwikkelende relatie tussen AI-technologie en defensiestrategieën.