Anthropic, wiodące laboratorium sztucznej inteligencji, zdecydowanie zaprzecza zarzutom, że mogłoby celowo zakłócić lub wyłączyć model sztucznej inteligencji Claude, gdyby został on wykorzystany do celów wojskowych przez rząd USA. Kontrowersje pojawiają się, gdy Pentagon stara się zakazać technologii Anthropic w związku z obawami dotyczącymi możliwej interferencji z krytycznymi operacjami.
Istota konfliktu
Departament Obrony Stanów Zjednoczonych (DoD) uznał Anthropic za „ryzyko w łańcuchu dostaw”, skutecznie uniemożliwiając jego stosowanie, w tym za pośrednictwem wykonawców. Posunięcie to wynika z obaw, że Anthropic może jednostronnie zablokować dostęp do Claude, zmienić jego funkcjonalność lub wprowadzić złośliwe aktualizacje, jeśli nie zgadza się z niektórymi aplikacjami wojskowymi. Ministerstwo Obrony argumentuje, że takie działania mogłyby zagrozić dotychczasowej działalności.
Szef sektora publicznego w firmie Anthropic, Thiyagu Ramasamy, argumentuje, że firma nie ma możliwości technicznych, aby sabotować własną technologię po jej wdrożeniu. W dokumentach sądowych Ramasamy stwierdził, że Anthropic „nie ma dostępu niezbędnego do wyłączenia technologii lub zmiany zachowania modelu przed bieżącymi operacjami lub w ich trakcie”. Podkreślił, że nie ma „tylnych drzwi” ani „wyłącznika awaryjnego”, a wszelkie aktualizacje będą wymagały zgody zarówno rządu, jak i dostawcy usług w chmurze Amazon Web Services.
Pozwy i konsekwencje finansowe
Anthropic złożyła dwa pozwy, w których kwestionuje zakaz Ministerstwa Obrony jako niezgodny z konstytucją. Firma zwróciła się do sądu o wydanie nadzwyczajnego nakazu uchylenia zakazu, ale negocjacje zostały zerwane pomimo chęci Anthropic do umownego zagwarantowania, że nie będzie zawetować uzasadnionych decyzji wojskowych. Pentagon pozostaje sceptyczny, twierdząc, że podejmuje „dodatkowe środki w celu ograniczenia ryzyka w łańcuchu dostaw”, współpracując z dostawcami usług w chmurze, aby zapobiec jednostronnym zmianom ze strony Anthropic.
Konsekwencje zakazu są już zauważalne: klienci odwołują transakcje. Anthropic twierdzi, że spór może kosztować firmę miliardy dolarów przychodów. Na 24 marca zaplanowano rozprawę sądową, na której sędzia może zdecydować o tymczasowym zniesieniu zakazu.
Szerszy kontekst
Konflikt uwydatnia rosnące napięcia między twórcami sztucznej inteligencji a interesami bezpieczeństwa narodowego. Pentagon wykorzystywał Claude’a do analizowania danych, pisania notatek, a nawet pomagania w opracowywaniu planów bitew. Obawy rządu nie są bezpodstawne: inne laboratoria sztucznej inteligencji, takie jak OpenAI, początkowo zakazały zastosowań wojskowych, zanim dopuściły je w ramach partnerstwa z Microsoftem. Jednocześnie firmy takie jak Smack Technologies już trenują modele przeznaczone specjalnie do walki.
Incydent ten rodzi krytyczne pytanie: w jakim stopniu prywatne firmy rozwijające sztuczną inteligencję powinny mieć kontrolę nad technologiami wdrażanymi w kontekście bezpieczeństwa narodowego? Debata wykracza poza Anthropic, ponieważ cała branża sztucznej inteligencji zmaga się z etycznymi i strategicznymi konsekwencjami zastosowań wojskowych.
Ostatecznie spór między Anthropic a Pentagonem służy jako ostrzeżenie, że włączenie sztucznej inteligencji do wojska jest obarczone niepewnością i ryzykiem i wymaga dokładnego rozważenia zarówno możliwości technologicznych, jak i potencjalnych konfliktów interesów.























