Die US-Regierung hat Anthropic, ein führendes Unternehmen für künstliche Intelligenz, offiziell als „inakzeptables“ nationales Sicherheitsrisiko eingestuft. Diese Entscheidung ist auf Bedenken zurückzuführen, dass das Unternehmen möglicherweise seine KI-Technologie – einschließlich seines beliebten Claude-Chatbots – manipulieren könnte, um insbesondere in einem Konfliktszenario seine eigenen Interessen über die strategischen Ziele der USA zu stellen.
Bedenken der Regierung hinsichtlich KI-Manipulation
In einer 40-seitigen Gerichtsakte, die beim US-Bezirksgericht für den nördlichen Bezirk von Kalifornien eingereicht wurde, argumentierten Regierungsanwälte, dass KI-Systeme „extrem anfällig für Manipulationen“ seien. Sie behaupten, dass die Gewährung von Anthropic-Zugriff auf die Infrastruktur des Verteidigungsministeriums (DoD) zu inakzeptablen Schwachstellen in den militärischen Lieferketten führen würde. In der Einreichung wurde hervorgehoben, dass die Kontrolle von Anthropic über seine Technologie das Risiko birgt, dass das Unternehmen Systeme auf eine Weise deaktivieren oder verändern könnte, die sich nachteilig auf die Kriegsführungsfähigkeiten der USA auswirkt.
Anthropics Reaktion und anhaltender Rechtsstreit
Anthropic hat diesen Behauptungen öffentlich widersprochen und dabei Aussagen von CEO Dario Amodei zitiert, der betonte, dass militärische Entscheidungen über den KI-Einsatz bei den Streitkräften und nicht bei seinem Unternehmen liegen. Amodei erklärte, dass Anthropic niemals Einwände gegen militärische Operationen mit seiner Technologie erhoben oder diese eingeschränkt habe.
Die Haltung der Regierung hat jedoch rechtliche Schritte nach sich gezogen. Am 9. März reichte Anthropic zwei Klagen gegen die jüngste Einstufung des Unternehmens durch Verteidigungsminister Pete Hegseth als „Lieferkettenrisiko“ ein – eine beim kalifornischen Bezirksgericht und eine weitere beim US-Berufungsgericht für den District of Columbia Circuit.
Warum das wichtig ist: Der breitere Kontext
Dieser Streit unterstreicht eine wachsende Spannung zwischen der rasanten Entwicklung der KI und nationalen Sicherheitserwägungen. Regierungen auf der ganzen Welt prüfen zunehmend KI-Unternehmen, insbesondere solche mit Zugang zu sensiblen Militär- oder Regierungssystemen. Der Fall verdeutlicht die inhärenten Risiken, die damit verbunden sind, sich bei kritischen Verteidigungsanwendungen auf eine privat kontrollierte KI-Infrastruktur zu verlassen.
Der Schritt der US-Regierung signalisiert einen breiteren Trend zu einer strengeren Überwachung der KI-Lieferketten, was möglicherweise zu strengeren Vorschriften für KI-Firmen führt, die in nationalen Sicherheitsbereichen tätig sind. Der Ausgang der rechtlichen Anfechtungen von Anthropic wird wahrscheinlich einen Präzedenzfall dafür schaffen, wie Regierungen künftig mit KI-Risiken umgehen.
Die Situation wird dadurch noch komplizierter, dass die Regierung den Begriff „Kriegsministerium“ anstelle von „Verteidigungsministerium“ verwendet, eine Präferenz der Trump-Regierung, was dem Streit eine weitere Ebene politischen Kontexts hinzufügt.
Letztendlich stellt die Einschätzung der US-Regierung, dass Anthropic ein nationales Sicherheitsrisiko darstellt, einen kritischen Punkt in der sich entwickelnden Beziehung zwischen KI-Technologie und Verteidigungsstrategien dar.























