Der Vorstoß der US-Regierung, künstliche Intelligenz in militärische Operationen zu integrieren, stellt KI-Unternehmen vor ein großes Dilemma: Sicherheitsstandards priorisieren oder lukrative Verteidigungsverträge abschließen. Diese Spannung erreichte kürzlich ihren Höhepunkt, als das Pentagon Anthropic, ein führendes KI-Unternehmen, wegen seiner Zurückhaltung, sich vollständig an bestimmten „tödlichen Operationen“ zu beteiligen, unter die Lupe nahm und möglicherweise einen 200-Millionen-Dollar-Vertrag gefährdete. Dies signalisiert eine klare Botschaft an andere Unternehmen – OpenAI, xAI und Google –, die derzeit mit dem Verteidigungsministerium an nicht klassifizierten Projekten zusammenarbeiten: Es wird eine vollständige Einhaltung erwartet, wenn sie Sicherheitsfreigaben auf hohem Niveau anstreben.

Der Einsatz ist höher als der Gewinn

Dabei geht es nicht nur ums Geld. Anthropics Engagement für die KI-Sicherheit, eine in der Branche seltene Haltung, steht im Widerspruch zur Politik der Regierung der uneingeschränkten militärischen KI-Entwicklung. Berichten zufolge könnte das Unternehmen sogar als „Lieferkettenrisiko“ eingestuft werden – eine Bezeichnung, die normalerweise Unternehmen vorbehalten ist, die mit verfeindeten Nationen wie China verbunden sind. Dies würde Verteidigungsunternehmen effektiv davon abhalten, die KI von Anthropic zu nutzen, und sie dazu zwingen, nach Alternativen mit weniger ethischen Bedenken zu suchen.

Im Kern geht es um die Frage, ob das Streben nach nationaler Sicherheit es rechtfertigt, genau die Prinzipien zu gefährden, die viele KI-Entwickler zu wahren behaupten. Das Pentagon möchte nichts von „Ausnahmen“ oder „rechtlichen Unterscheidungen“ hören, wenn es um tödliche Anwendungen geht. Wie ein Beamter unverblümt erklärte, müssen sich KI-Unternehmen dazu verpflichten, „alles zu tun, um zu gewinnen“. Dies wirft eine beunruhigende Frage auf: Werden staatliche Forderungen nach einer militärischen Nutzung die Sicherheit der KI von Natur aus beeinträchtigen?

Das Paradoxon von Sicherheit und Kriegsführung

KI-Führungskräfte selbst erkennen die beispiellose Leistungsfähigkeit der Technologie an. Viele Unternehmen wurden mit der Prämisse gegründet, künstliche allgemeine Intelligenz (AGI) – Superintelligenz – zu erreichen und gleichzeitig weitreichenden Schaden zu verhindern. Elon Musk, einst ein lautstarker Befürworter der KI-Regulierung, war Mitbegründer von OpenAI aus Angst, dass eine unkontrollierte Entwicklung katastrophal wäre.

Anthropic zeichnet sich durch die umfassende Integration von Sicherheitsmaßnahmen in seine Modelle aus, um die Ausnutzung durch böswillige Akteure zu verhindern. Dies steht im Einklang mit den ethischen Grundsätzen, die Isaac Asimov vor Jahrzehnten in seinen Gesetzen der Robotik formuliert hat: KI sollte Menschen keinen Schaden zufügen. Das Beharren des Pentagons auf einer uneingeschränkten militärischen Nutzung untergräbt jedoch genau diese Grundlage.

Ein unvermeidliches Wettrüsten?

Die USA könnten ihren KI-Vorteil gegenüber Gegnern wie Venezuela relativ ungestraft ausspielen, aber hochentwickelte Gegner werden unweigerlich ihre eigenen KI-Systeme für die nationale Sicherheit entwickeln. Dies wird ein regelrechtes Wettrüsten auslösen, bei dem die Regierungen der militärischen Dominanz Vorrang vor ethischen Erwägungen einräumen. Die Regierung scheint bereit zu sein, rechtliche Grenzen neu zu definieren, um fragwürdige Praktiken zu rechtfertigen, wodurch KI-Unternehmen, die auf Sicherheitsstandards bestehen, entbehrlich werden.

Diese Denkweise untergräbt die Bemühungen, eine sichere KI zu schaffen. Die Entwicklung tödlicher und nicht-tödlicher Versionen derselben Technologie ist von Natur aus widersprüchlich. Die einst ernsthaften Diskussionen über internationale Gremien, die den schädlichen Einsatz von KI regulieren, sind verblasst und durch die düstere Realität ersetzt, dass die Zukunft der Kriegsführung untrennbar mit der KI verbunden ist.

Die langfristigen Auswirkungen sind erschreckend. Wenn KI-Unternehmen und Regierungen es nicht schaffen, das Gewaltpotenzial der Technologie einzudämmen, könnte die Zukunft der KI selbst aggressiver und unvorhersehbarer werden. Die Frage ist nicht, ob KI die Kriegsführung verändern wird; Es geht darum, ob Kriegsführung die KI korrumpieren wird.

Letztendlich verändert die Dominanz der digitalen Technologie die Menschheit auf unwiderrufliche Weise. Während politische Regime aufsteigen und fallen können, ist der Aufstieg der KI eine Kraft, die selbst die mächtigsten Führer überdauern wird. Das eigentliche Schlachtfeld findet jetzt nicht nur zwischen Nationen statt, sondern zwischen den Idealen der Sicherheit und den Anforderungen absoluter Macht.