Anthropic, ein führendes Labor für künstliche Intelligenz, hat Vorwürfe vehement zurückgewiesen, dass es sein Claude-KI-Modell absichtlich stören oder deaktivieren könnte, wenn es von der US-Regierung für militärische Zwecke eingesetzt würde. Der Streit kommt zu einem Zeitpunkt, zu dem das Pentagon versucht, die Technologie von Anthropic zu verbieten, da Bedenken hinsichtlich einer möglichen Beeinträchtigung kritischer Operationen bestehen.

Der Kern des Konflikts

Das Verteidigungsministerium (DoD) hat Anthropic als „Lieferkettenrisiko“ eingestuft und seinen Einsatz effektiv verhindert, auch durch Auftragnehmer. Hintergrund dieser Aktion ist die Befürchtung, dass Anthropic den Zugriff auf Claude einseitig sperren, seine Funktionalität ändern oder schädliche Updates veröffentlichen könnte, wenn es mit bestimmten militärischen Anwendungen nicht einverstanden wäre. Das Verteidigungsministerium argumentiert, dass solche Maßnahmen den aktiven Betrieb gefährden könnten.

Der Leiter des öffentlichen Sektors von Anthropic, Thiyagu Ramasamy, behauptet, dass dem Unternehmen die technischen Kapazitäten fehlen, um seine eigene Technologie nach dem Einsatz zu sabotieren. In einer Gerichtsakte erklärte Ramasamy, dass Anthropic „nicht über den erforderlichen Zugriff verfügt, um die Technologie zu deaktivieren oder das Verhalten des Modells vor oder während des laufenden Betriebs zu ändern“. Er betonte, dass es keine „Hintertür“ und keinen „Kill Switch“ gebe und dass alle Aktualisierungen die Genehmigung sowohl der Regierung als auch des Cloud-Anbieters Amazon Web Services erfordern würden.

Rechtsstreitigkeiten und finanzielle Auswirkungen

Anthropic hat zwei Klagen gegen das Verbot des Verteidigungsministeriums als verfassungswidrig eingereicht. Das Unternehmen beantragte eine Dringlichkeitsanordnung, um die Entscheidung rückgängig zu machen, doch die Verhandlungen scheiterten, obwohl Anthropic bereit war, vertraglich zu garantieren, dass es kein Veto gegen rechtmäßige militärische Entscheidungen einlegen würde. Das Pentagon bleibt skeptisch und erklärt, es ergreife „zusätzliche Maßnahmen, um das Lieferkettenrisiko zu mindern“, indem es mit Cloud-Anbietern zusammenarbeite, um einseitige Änderungen durch Anthropic zu verhindern.

Die Folgen des Verbots sind bereits offensichtlich: Kunden stornieren Geschäfte. Anthropic behauptet, der Streit könnte dem Unternehmen Einnahmen in Milliardenhöhe kosten. Für den 24. März ist eine Gerichtsverhandlung angesetzt, bei der ein Richter über eine vorübergehende Aufhebung des Verbots entscheiden kann.

Der breitere Kontext

Dieser Konflikt verdeutlicht die wachsende Spannung zwischen KI-Entwicklern und nationalen Sicherheitsinteressen. Das Pentagon nutzt Claude, um Daten zu analysieren, Memos zu entwerfen und sogar bei der Erstellung von Schlachtplänen zu helfen. Die Sorge der Regierung ist nicht unbegründet: Andere KI-Labore wie OpenAI verboten zunächst den militärischen Einsatz, bevor sie ihn über Microsoft-Partnerschaften erlaubten. Mittlerweile trainieren Unternehmen wie Smack Technologies bereits Modelle explizit für den Einsatz auf dem Schlachtfeld.

Der Vorfall unterstreicht eine entscheidende Frage: Inwieweit sollten private KI-Unternehmen die Kontrolle über die im nationalen Sicherheitskontext eingesetzte Technologie haben? Die Debatte geht über Anthropic hinaus, da sich die KI-Branche im Allgemeinen mit ethischen und strategischen Implikationen militärischer Anwendungen auseinandersetzt.

Letztendlich dient der Streit zwischen Anthropic und dem Pentagon als Warnung, dass die Integration von KI in die Kriegsführung mit Unsicherheit und Risiken behaftet ist und eine sorgfältige Abwägung sowohl der technologischen Fähigkeiten als auch potenzieller Interessenkonflikte erfordert.