Rząd USA oficjalnie uznał Anthropic, wiodącą firmę zajmującą się sztuczną inteligencją, za „niedopuszczalne” ryzyko dla bezpieczeństwa narodowego. Decyzja ta wynika z obaw, że firma może potencjalnie manipulować swoimi technologiami sztucznej inteligencji, w tym popularnym chatbotem Claude, aby przedkładać swoje interesy nad cele strategiczne USA, zwłaszcza w sytuacjach konfliktowych.
Obawy rządu dotyczące manipulacji sztuczną inteligencją
W 40-stronicowym pozwie złożonym w Sądzie Okręgowym Stanów Zjednoczonych dla Północnego Okręgu Kalifornii prawnicy rządowi argumentowali, że systemy sztucznej inteligencji są „niezwykle podatne na manipulację”. Zapewnienie Anthropic dostępu do infrastruktury Departamentu Obrony (DoD) spowodowałoby, ich zdaniem, niedopuszczalne słabe punkty w wojskowych łańcuchach dostaw. W apelu podkreślono, że kontrola Anthropic nad swoją technologią stwarza ryzyko, że firma może wyłączyć lub zmienić systemy w sposób, który zaszkodzi zdolnościom bojowym USA.
Odpowiedź firmy Anthropic i trwająca batalia prawna
Anthropic publicznie zaprzeczył tym twierdzeniom, powołując się na wypowiedzi dyrektora generalnego Dario Amodei, który podkreślił, że decyzje o wykorzystaniu sztucznej inteligencji do celów wojskowych podejmuje wojsko, a nie jego firma. Amodei powiedział, że firma Anthropic nigdy nie sprzeciwiała się operacjom wojskowym wykorzystującym swoją technologię ani nie ograniczała ich.
Stanowisko rządu doprowadziło jednak do wszczęcia postępowania sądowego. 9 marca firma Anthropic złożyła dwa pozwy, kwestionując niedawną decyzję Sekretarza Obrony Pete’a Hegsetha o uznaniu firmy za „ryzyko łańcucha dostaw” – jeden w sądzie rejonowym w Kalifornii, a drugi w Sądzie Apelacyjnym Stanów Zjednoczonych dla okręgu Dystryktu Kolumbii.
Dlaczego to ma znaczenie: szerszy kontekst
Spór uwydatnia rosnące napięcie między szybkim rozwojem sztucznej inteligencji a obawami dotyczącymi bezpieczeństwa narodowego. Rządy na całym świecie coraz częściej przyglądają się firmom zajmującym się sztuczną inteligencją, zwłaszcza tym, które mają dostęp do wrażliwych systemów wojskowych lub rządowych. Ten przypadek pokazuje nieodłączne ryzyko związane z wykorzystywaniem prywatnej infrastruktury sztucznej inteligencji do kluczowych celów obronnych.
Działania rządu USA sygnalizują szerszą tendencję w kierunku wzmożonej kontroli łańcuchów dostaw AI, co może prowadzić do zaostrzenia przepisów dla firm działających w przestrzeni bezpieczeństwa narodowego. Wynik sporu Anthropic prawdopodobnie ustanowi precedens dla przyszłego sposobu, w jaki rządy będą zarządzać zagrożeniami związanymi ze sztuczną inteligencją.
Sprawę jeszcze bardziej komplikuje fakt, że rząd używa terminu „Departament Wojny” zamiast „Departament Obrony”, zgodnie z preferencją administracji Trumpa, która dodaje do sporu kolejną warstwę kontekstu politycznego.
Ostatecznie dokonana przez rząd USA ocena Anthropic jako zagrożenia dla bezpieczeństwa narodowego stanowi krytyczny moment w ewoluującej relacji między technologiami sztucznej inteligencji a strategiami obronnymi.























