Het Amerikaanse ministerie van Defensie (DoD) ligt onder vuur omdat het Anthropic, een bedrijf op het gebied van kunstmatige intelligentie, zou hebben gestraft nadat het had geprobeerd het militaire gebruik van zijn AI-instrumenten te beperken. Een Amerikaanse districtsrechter, Rita Lin, uitte dinsdag tijdens een rechtszitting haar bezorgdheid dat de acties van het DoD een “poging leken te zijn om Anthropic te verlammen, waardoor mogelijk de First Amendment-rechten van het bedrijf werden geschonden.
Geschil over de inzet van militaire AI
Anthropic heeft twee federale rechtszaken aangespannen, waarin wordt beweerd dat het DoD wraak op hen heeft genomen door het bedrijf als een veiligheidsrisico aan te merken, nadat het had aangedrongen op beperkingen op de manier waarop zijn AI door het leger kon worden gebruikt. Deze benaming maakt het feitelijk moeilijker voor Anthropic om zaken te doen met overheidsaannemers, zelfs degenen die aan niet-defensieprojecten werken.
Het DoD, dat zichzelf nu het Department of War (DoW) noemt, stelt dat zijn acties zijn ondernomen nadat was vastgesteld dat de AI-tools van Anthropic niet langer betrouwbaar konden functioneren tijdens kritieke operaties. Rechter Lin vroeg zich echter af of de strafmaatregelen – een benaming die doorgaans voorbehouden is aan buitenlandse tegenstanders en vijandige actoren – in verhouding stonden tot de aangegeven bezorgdheid over de nationale veiligheid.
Juridische strijd en publieke controle
Anthropic vraagt om een tijdelijk bevel om de veiligheidsstatus te onderbreken, in de hoop klanten gerust te stellen die aarzelen om onder de huidige omstandigheden met het bedrijf verder te werken. De uitspraak van rechter Lin over dit bevel wordt binnen enkele dagen verwacht.
Het geschil heeft een breder debat aangewakkerd over het toenemende gebruik van AI door de strijdkrachten en over de vraag of technologiebedrijven zich aan de overheid moeten overlaten bij het bepalen hoe hun technologieën worden ingezet. De acties van het Ministerie van Defensie roepen vragen op over de balans tussen nationale veiligheid en bedrijfsautonomie in het tijdperk van snel voortschrijdende AI.
Twijfelachtige autoriteit en escalatie
Tijdens de hoorzitting gaf een advocaat van Trump toe dat minister Pete Hegseth geen wettelijke bevoegdheid had om militaire aannemers te verbieden Anthropic te gebruiken voor niet-DoD-werk, ondanks dat Hegseth vorige maand net zoveel op X (voorheen Twitter) had gepost. Deze bekentenis voedt verder het vermoeden dat de acties van het Ministerie van Defensie eerder waren ingegeven door vergelding dan door legitieme veiligheidsproblemen.
Het Pentagon beweert af te stappen van de technologieën van Anthropic, met plannen om deze te vervangen door alternatieven van Google, OpenAI en xAI, terwijl het maatregelen implementeert om te voorkomen dat Anthropic tijdens de verschuiving met zijn AI-modellen knoeit. Het bedrijf betwist deze bewering en beweert dat het zijn modellen niet kan bijwerken zonder toestemming van het Pentagon.
De inzet
De zaak benadrukt de complexe relatie tussen particuliere technologiebedrijven en overheidsinstanties bij de ontwikkeling en inzet van AI. Als Anthropic slaagt in zijn juridische uitdaging, zou het een precedent kunnen scheppen voor de manier waarop de overheid AI-bedrijven behandelt die zich verzetten tegen militaire toepassingen van hun technologieën. Binnenkort wordt ook een uitspraak van het federale hof van beroep in Washington DC verwacht, waardoor de juridische grenzen van dit conflict mogelijk verder worden verduidelijkt.
De situatie onderstreept dat naarmate AI meer geïntegreerd raakt in de nationale veiligheid, de kwestie van de invloed van bedrijven en het bereik van de overheid alleen maar belangrijker zal worden.























