Das US-Verteidigungsministerium (DoD) steht unter Beschuss, weil es Anthropic, ein Unternehmen für künstliche Intelligenz, angeblich bestraft hat, nachdem es versucht hatte, den militärischen Einsatz seiner KI-Tools einzuschränken. Eine US-Bezirksrichterin, Rita Lin, äußerte während einer Gerichtsverhandlung am Dienstag ihre Besorgnis darüber, dass die Maßnahmen des Verteidigungsministeriums ein „Versuch zu sein schienen, Anthropic zu lähmen“ und möglicherweise die First Amendment-Rechte des Unternehmens verletzten.

Streit um militärischen KI-Einsatz

Anthropic hat zwei Bundesklagen eingereicht und behauptet, dass das Verteidigungsministerium Vergeltungsmaßnahmen ergriffen habe, indem es das Unternehmen als Sicherheitsrisiko eingestuft habe, nachdem es auf Beschränkungen für den Einsatz seiner KI durch das Militär gedrängt hatte. Diese Bezeichnung erschwert es Anthropic effektiv, mit staatlichen Auftragnehmern Geschäfte zu machen, selbst mit solchen, die an nicht verteidigungsbezogenen Projekten arbeiten.

Das Verteidigungsministerium, das sich jetzt als Kriegsministerium (Department of War, DoW) bezeichnet, argumentiert, dass seine Maßnahmen ergriffen wurden, nachdem es festgestellt hatte, dass die Zuverlässigkeit der KI-Tools von Anthropic bei kritischen Operationen nicht mehr zuverlässig funktionierte. Richter Lin stellte jedoch in Frage, ob die Strafmaßnahmen – eine Bezeichnung, die normalerweise ausländischen Gegnern und feindlichen Akteuren vorbehalten ist – im Verhältnis zu den geäußerten nationalen Sicherheitsbedenken standen.

Rechtsstreit und öffentliche Kontrolle

Anthropic beantragt eine einstweilige Verfügung, um die Sicherheitskennzeichnung auszusetzen, in der Hoffnung, Kunden zu beruhigen, die zögern, unter den aktuellen Bedingungen weiterhin mit dem Unternehmen zusammenzuarbeiten. Die Entscheidung von Richter Lin zu dieser einstweiligen Verfügung wird in wenigen Tagen erwartet.

Der Streit hat eine breitere Debatte über den zunehmenden Einsatz von KI durch die Streitkräfte entfacht und darüber, ob Technologieunternehmen die Entscheidung über den Einsatz ihrer Technologien der Regierung überlassen sollten. Das Vorgehen des Verteidigungsministeriums wirft Fragen über das Gleichgewicht zwischen nationaler Sicherheit und Unternehmensautonomie im Zeitalter der schnell fortschreitenden KI auf.

Fragwürdige Autorität und Eskalation

Während der Anhörung gab ein Anwalt der Trump-Administration zu, dass Außenminister Pete Hegseth keine rechtliche Befugnis habe, militärischen Auftragnehmern die Nutzung von Anthropic für Nicht-DoD-Arbeiten zu verbieten, obwohl Hegseth dies letzten Monat auf X (ehemals Twitter) gepostet habe. Dieses Eingeständnis nährt den Verdacht, dass die Maßnahmen des Verteidigungsministeriums eher durch Vergeltungsmaßnahmen als durch legitime Sicherheitsbedenken motiviert waren.

Das Pentagon gibt an, sich von den Technologien von Anthropic abzuwenden und plant, sie durch Alternativen von Google, OpenAI und xAI zu ersetzen. Gleichzeitig werden Maßnahmen umgesetzt, um zu verhindern, dass Anthropic während des Wandels seine KI-Modelle manipuliert. Das Unternehmen bestreitet diese Behauptung und behauptet, es könne seine Modelle nicht ohne Erlaubnis des Pentagons aktualisieren.

Die Einsätze

Der Fall verdeutlicht die komplexe Beziehung zwischen privaten Technologieunternehmen und Regierungsbehörden bei der Entwicklung und dem Einsatz von KI. Wenn Anthropic mit seiner rechtlichen Anfechtung Erfolg hat, könnte dies einen Präzedenzfall dafür schaffen, wie die Regierung KI-Firmen behandelt, die sich gegen militärische Anwendungen ihrer Technologien wehren. Ein Urteil des Bundesberufungsgerichts in Washington, D.C. wird ebenfalls bald erwartet und könnte die rechtlichen Grenzen dieses Konflikts möglicherweise weiter klären.

Die Situation unterstreicht, dass mit zunehmender Integration der KI in die nationale Sicherheit die Frage des Einflusses von Unternehmen und der Übermacht der Regierung nur noch kritischer wird.