Naleganie rządu USA na włączenie sztucznej inteligencji do operacji wojskowych stwarza poważny dylemat dla firm zajmujących się sztuczną inteligencją: nadać priorytet standardom bezpieczeństwa lub zapewnić lukratywne kontrakty w dziedzinie obronności. Napięcia te osiągnęły punkt kulminacyjny, gdy Pentagon umieścił Anthropic, wiodącą firmę zajmującą się sztuczną inteligencją, pod obserwacją ze względu na jej niechęć do pełnego zaangażowania się w pewne „śmiertelne operacje”, co potencjalnie naraziło na szwank kontrakt o wartości 200 milionów dolarów. Wysyła to jasny sygnał do innych firm – OpenAI, xAI i Google – które obecnie współpracują z Departamentem Obrony nad niesklasyfikowanymi projektami: oczekuje się pełnej zgodności, jeśli będą starały się uzyskać najwyższy poziom zezwolenia.
Stawki powyżej zysku
Nie chodzi tylko o pieniądze. Zaangażowanie firmy Anthropic w bezpieczeństwo sztucznej inteligencji, co jest rzadką pozycją w branży, stoi w sprzeczności z dążeniem administracji do nieograniczonego rozwoju wojskowej sztucznej inteligencji. Według doniesień firma może nawet zostać uznana za „ryzyko łańcucha dostaw” – jest to określenie zwykle zarezerwowane dla podmiotów powiązanych z wrogimi państwami, takimi jak Chiny. Skutecznie odcięłoby to firmy obronne od korzystania ze sztucznej inteligencji Anthropic, zmuszając je do szukania alternatyw z mniejszymi wahaniami etycznymi.
Sedno pytania brzmi, czy dążenie do bezpieczeństwa narodowego uzasadnia naruszenie zasad, które twierdzi wielu twórców sztucznej inteligencji. Pentagon nie chce słyszeć o „wyjątkach” ani „technicznych kwestiach prawnych”, jeśli chodzi o śmiertelne użycie. Jak bez ogródek stwierdził jeden z urzędników, firmy zajmujące się sztuczną inteligencją muszą zobowiązać się do „robienia wszystkiego, co konieczne, aby wygrać”. Rodzi to niepokojące pytanie: czy nieuniknione jest, że wymagania rządowe do zastosowań wojskowych spowodują, że sztuczna inteligencja będzie mniej bezpieczna?
Paradoks bezpieczeństwa i wojny
Sami liderzy w dziedzinie sztucznej inteligencji dostrzegają niespotykaną dotąd siłę tej technologii. Wiele firm powstało w oparciu o założenie osiągnięcia sztucznej inteligencji ogólnej (AGI) – superinteligencji – przy jednoczesnym zapobieganiu powszechnym szkodom. Elon Musk, niegdyś zagorzały zwolennik regulacji sztucznej inteligencji, założył OpenAI w obawie, że niekontrolowany rozwój będzie katastrofalny.
Anthropic wyróżnia się głęboką integracją mechanizmów bezpieczeństwa ze swoimi modelami, mając na celu zapobieganie wykorzystywaniu ich przez złośliwe podmioty. Jest to zgodne z zasadami etycznymi określonymi kilkadziesiąt lat temu przez Isaaca Asimova w jego Prawach robotyki: sztuczna inteligencja nie powinna krzywdzić ludzi. Jednakże naleganie Pentagonu na nieograniczone wykorzystanie wojskowe podważa te podstawy.
Nieunikniony wyścig zbrojeń?
Stany Zjednoczone mogą wykorzystać swoją przewagę w zakresie sztucznej inteligencji przeciwko przeciwnikom takim jak Wenezuela ze względną bezkarnością, ale wyrafinowani przeciwnicy nieuchronnie opracują własne systemy sztucznej inteligencji na potrzeby bezpieczeństwa narodowego. Wywołałoby to wyścig zbrojeń na pełną skalę, w którym rządy przedkładałyby dominację militarną nad względy etyczne. Wydaje się, że administracja jest gotowa na nowo zdefiniować granice prawne, aby uzasadnić wątpliwe praktyki, co sprawi, że firmy nalegające na przestrzeganie standardów bezpieczeństwa sztucznej inteligencji staną się niepotrzebne.
Takie podejście podważa wysiłki na rzecz stworzenia bezpiecznej sztucznej inteligencji. Opracowywanie śmiercionośnych i nieśmiercionośnych wersji tej samej technologii jest z natury sprzeczne. Poważne dyskusje na temat organów międzynarodowych regulujących szkodliwe wykorzystanie sztucznej inteligencji ucichły, ustępując miejsca trudnej rzeczywistości, że przyszłość wojny jest nierozerwalnie związana ze sztuczną inteligencją.
Długoterminowe skutki są przerażające. Jeśli firmom i rządom nie uda się ograniczyć potencjału tej technologii w zakresie przemocy, przyszłość samej sztucznej inteligencji może stać się bardziej agresywna i nieprzewidywalna. Pytanie nie brzmi, czy sztuczna inteligencja zmieni sposób prowadzenia wojny; pytanie brzmi, czy wojna skorumpuje sztuczną inteligencję.
Ostatecznie dominacja technologii cyfrowej zmienia ludzkość w nieodwracalny sposób. Choć reżimy polityczne mogą powstawać i upaść, rozwój sztucznej inteligencji jest siłą, która przetrwa nawet najpotężniejszych przywódców. Prawdziwe pole bitwy toczy się obecnie nie tylko pomiędzy państwami, ale także pomiędzy ideałami bezpieczeństwa a żądaniami władzy absolutnej.























