Departament Obrony Stanów Zjednoczonych (DoD) znajduje się pod ostrzałem w związku z rzekomym ukaraniem firmy Anthropic zajmującej się sztuczną inteligencją po tym, jak próbowała ona ograniczyć wykorzystanie przez wojsko jej narzędzi. Sędzia Sądu Okręgowego Stanów Zjednoczonych Rita Lin wyraziła zaniepokojenie podczas wtorkowej rozprawy, stwierdzając, że działania Departamentu Obrony wydają się być „próbą podważenia” Anthropic, potencjalnie naruszając prawa firmy wynikające z Pierwszej Poprawki.

Brak porozumienia w sprawie rozmieszczenia wojskowej sztucznej inteligencji

Anthropic złożyła dwa pozwy federalne, utrzymując, że Departament Obrony zemścił się na niej, uznając ją za zagrożenie dla bezpieczeństwa po tym, jak nalegała na ograniczenie wykorzystania sztucznej inteligencji przez wojsko. Status ten w rzeczywistości utrudnia firmie Anthropic prowadzenie interesów z wykonawcami rządowymi, nawet tymi pracującymi nad projektami niezwiązanymi z obronnością.

Departament Obrony, obecnie nazywający siebie Departamentem Wojny (DW), twierdzi, że swoje działania podjęto po ustaleniu, że narzędziom sztucznej inteligencji firmy Anthropic nie można już ufać w krytycznych operacjach. Sędzia Lin miał jednak wątpliwości, czy środki karne – status zwykle zarezerwowany dla zagranicznych przeciwników i wrogich podmiotów – były proporcjonalne do stwierdzonych obaw związanych z bezpieczeństwem narodowym.

Bitwa prawna i wrzawa publiczna

Anthropic stara się o tymczasowy nakaz zawieszenia statusu zagrożenia bezpieczeństwa, mając nadzieję, że uspokoi klientów, którzy wahają się przed kontynuowaniem współpracy z firmą w obecnych warunkach. Orzeczenie sędziego Lin w tej sprawie ma zostać wydane w ciągu kilku dni.

Spór wywołał szerszą debatę na temat coraz szerszego wykorzystania sztucznej inteligencji przez wojsko oraz tego, czy firmy technologiczne powinny zlecać rządowi określanie sposobu wdrażania ich technologii. Działania Departamentu Obrony podają w wątpliwość równowagę pomiędzy bezpieczeństwem narodowym a autonomią korporacji w dobie szybko rozwijającej się sztucznej inteligencji.

Wątpliwy autorytet i eskalacja

Podczas przesłuchania prawnik administracji Trumpa przyznał, że sekretarz Peter Hegseth nie ma podstawy prawnej, aby zabraniać wykonawcom z branży obronnej wykorzystywania Anthropic do prac niezwiązanych z Departamentem Obrony, mimo że Hegseth zamieścił na ten temat post na X (dawniej Twitterze) w zeszłym miesiącu. Przyznanie to jeszcze bardziej podsyca podejrzenia, że ​​motywem działań MON była raczej zemsta niż uzasadnione obawy dotyczące bezpieczeństwa.

Pentagon twierdzi, że odchodzi od technologii Anthropic i planuje zastąpić ją alternatywami Google, OpenAI i xAI, podejmując jednocześnie kroki, aby zapobiec ingerencji Anthropic w modele sztucznej inteligencji podczas przejścia. Firma kwestionuje to twierdzenie, twierdząc, że nie może aktualizować swoich modeli bez zgody Pentagonu.

Jaka jest stawka

Sprawa podkreśla złożoną relację między prywatnymi firmami technologicznymi a agencjami rządowymi w zakresie rozwoju i wdrażania sztucznej inteligencji. Jeśli Anthropic wygra swój pozew, może to stanowić precedens dla sposobu, w jaki rząd traktuje firmy zajmujące się sztuczną inteligencją, które sprzeciwiają się wojskowemu wykorzystaniu ich technologii. Oczekuje się, że wkrótce federalny sąd apelacyjny w Waszyngtonie wyda orzeczenie, które może dodatkowo wyjaśnić prawne granice konfliktu.

Sytuacja ta pokazuje, że w miarę włączania sztucznej inteligencji do bezpieczeństwa narodowego kwestia wpływów korporacji i nadużyć ze strony rządu stanie się jeszcze bardziej dotkliwa.