Het streven van de Amerikaanse overheid om kunstmatige intelligentie te integreren in militaire operaties creëert een groot dilemma voor AI-bedrijven: geef prioriteit aan veiligheidsnormen of zorg voor lucratieve defensiecontracten. Deze spanning kwam onlangs tot een hoogtepunt toen het Pentagon Anthropic, een toonaangevend AI-bedrijf, onder de loep nam vanwege zijn onwil om volledig deel te nemen aan bepaalde ‘dodelijke operaties’, waardoor een contract van 200 miljoen dollar mogelijk in gevaar kwam. Dit is een duidelijke boodschap voor andere bedrijven – OpenAI, xAI en Google – die momenteel samenwerken met het ministerie van Defensie aan niet-geclassificeerde projecten: volledige naleving wordt verwacht als zij veiligheidsmachtigingen op hoog niveau nastreven.
De inzet is hoger dan de winst
De situatie gaat niet alleen over geld. De toewijding van Anthropic aan de veiligheid van AI, een zeldzaam standpunt in de industrie, heeft dit op gespannen voet gezet met het beleid van de regering van onbeperkte militaire AI-ontwikkeling. Rapporten suggereren dat het bedrijf zelfs kan worden bestempeld als een ‘toeleveringsketenrisico’ – een benaming die doorgaans voorbehouden is aan entiteiten die banden hebben met vijandige landen als China. Dit zou defensiebedrijven er effectief van weerhouden de AI van Anthropic te gebruiken, waardoor ze gedwongen zouden worden alternatieven te zoeken met minder ethische bezwaren.
De kern van de vraag is of het nastreven van de nationale veiligheid het in gevaar brengen van de principes die veel AI-ontwikkelaars beweren hoog te houden, rechtvaardigt. Het Pentagon wil niets horen over ‘carve-outs’ of ‘juridische verschillen’ als het om dodelijke toepassingen gaat. Zoals een functionaris botweg zei: AI-bedrijven moeten zich ertoe verbinden ‘alles te doen wat nodig is om te winnen’. Dit roept een verontrustende vraag op: zullen de eisen van de overheid voor militair gebruik AI inherent minder veilig maken?
De paradox van veiligheid en oorlogsvoering
AI-leiders erkennen zelf de ongekende kracht van de technologie. Veel bedrijven zijn opgericht vanuit de vooronderstelling om kunstmatige algemene intelligentie (AGI) – superintelligentie – te bereiken en tegelijkertijd wijdverbreide schade te voorkomen. Elon Musk, ooit een pleitbezorger voor AI-regulering, was medeoprichter van OpenAI uit angst dat een ongecontroleerde ontwikkeling catastrofaal zou zijn.
Anthropic heeft zich onderscheiden door veiligheidsbeugels diep in zijn modellen te integreren, met als doel uitbuiting door kwaadwillende actoren te voorkomen. Dit komt overeen met de ethische principes die Isaac Asimov decennia geleden verwoordde in zijn wetten van de robotica: AI mag mensen geen schade toebrengen. De nadruk van het Pentagon op onbeperkt militair gebruik ondermijnt echter juist dit fundament.
Een onvermijdelijke wapenwedloop?
De VS kunnen hun AI-voordeel relatief straffeloos uitoefenen tegen tegenstanders als Venezuela, maar geavanceerde tegenstanders zullen onvermijdelijk hun eigen AI-systemen voor de nationale veiligheid ontwikkelen. Dit zal leiden tot een regelrechte wapenwedloop, waarbij regeringen de voorkeur geven aan militaire dominantie boven ethische overwegingen. De regering lijkt bereid de wettelijke grenzen te herdefiniëren om twijfelachtige praktijken te rechtvaardigen, waardoor AI-bedrijven die aandringen op veiligheidsnormen vervangbaar worden.
Deze mentaliteit ondermijnt de inspanningen om veilige AI te creëren. Het ontwikkelen van dodelijke en niet-dodelijke versies van dezelfde technologie is inherent tegenstrijdig. De eens zo serieuze discussies over internationale instanties die schadelijk AI-gebruik reguleren, zijn vervaagd en vervangen door de grimmige realiteit dat de toekomst van oorlogvoering onlosmakelijk verbonden is met AI.
De gevolgen op de lange termijn zijn huiveringwekkend. Als AI-bedrijven en overheden er niet in slagen het geweldspotentieel van de technologie in te dammen, kan de toekomst van AI zelf agressiever en onvoorspelbaarder worden. De vraag is niet of AI de oorlogsvoering zal veranderen; het gaat erom of oorlogvoering AI zal corrumperen.
Uiteindelijk hervormt de dominantie van digitale technologie de mensheid op onherroepelijke manieren. Terwijl politieke regimes kunnen opkomen en vallen, is de opkomst van AI een kracht die zelfs de machtigste leiders zal overleven. Het echte strijdtoneel speelt zich nu niet alleen af tussen naties, maar tussen de idealen van veiligheid en de eisen van absolute macht.























