Trvání americké vlády na integraci umělé inteligence do vojenských operací vytváří pro společnosti AI vážné dilema: upřednostnit bezpečnostní standardy nebo zajistit lukrativní obranné zakázky. Toto napětí vyvrcholilo, když Pentagon podrobil kontrole Anthropic, přední společnost s umělou inteligencí, kvůli její neochotě plně se zapojit do určitých „smrtících operací“, což by mohlo ohrozit kontrakt ve výši 200 milionů dolarů. To vysílá jasný signál ostatním společnostem – OpenAI, xAI a Google – které v současné době spolupracují s ministerstvem obrany na neutajovaných projektech: očekává se, že budou plně vyhovovat, pokud budou usilovat o nejvyšší úroveň povolení.

Sazby nad ziskem

Nejde jen o peníze. Závazek společnosti Anthropic k bezpečnosti umělé inteligence, což je v tomto odvětví vzácná pozice, je v rozporu s tlakem administrativy na neomezený vývoj vojenské umělé inteligence. Uvádí se, že společnost může být dokonce označena jako „riziko dodavatelského řetězce“ – označení obvykle vyhrazené pro subjekty spojené s nepřátelskými státy, jako je Čína. To by účinně odřízlo obranné firmy od používání AI Anthropic a přinutilo je hledat alternativy s menším etickým váháním.

Jádrem otázky je, zda snaha o národní bezpečnost ospravedlňuje kompromitování samotných principů, které mnozí vývojáři AI prohlašují za podporu. Pentagon nechce slyšet o „výjimkách“ nebo „právních technických záležitostech“, pokud jde o smrtící použití. Jak jeden úředník bez obalu uvedl, společnosti s umělou inteligencí se musí zavázat, že „udělají, co je potřeba, aby vyhrály“. To vyvolává znepokojivou otázku: Je nevyhnutelné, že vládní požadavky na vojenské použití způsobí, že AI bude méně bezpečná?

Paradox bezpečnosti a války

Lídři v oblasti AI sami uznávají nebývalou sílu této technologie. Mnoho společností bylo založeno na předpokladu dosažení umělé obecné inteligence (AGI) – superinteligence – a zároveň předcházení rozsáhlým škodám. Elon Musk, kdysi hlasitý zastánce regulace AI, založil OpenAI ze strachu, že nekontrolovaný vývoj bude katastrofální.

Společnost Antropic se odlišuje tím, že do svých modelů hluboce integruje bezpečnostní mechanismy, jejichž cílem je zabránit zlomyslným aktérům v jejich zneužití. To je v souladu s etickými principy, které před desítkami let stanovil Isaac Asimov ve svých zákonech robotiky: AI by neměla lidem škodit. Avšak naléhání Pentagonu na neomezené vojenské použití tento základ podkopává.

Nevyhnutelný závod ve zbrojení?

USA mohou využívat svou výhodu AI proti protivníkům, jako je Venezuela, relativně beztrestně, ale sofistikovaní protivníci nevyhnutelně vyvinou své vlastní systémy AI pro národní bezpečnost. To by vyvolalo totální závody ve zbrojení, ve kterých by vlády upřednostňovaly vojenskou dominanci před etickými ohledy. Zdá se, že administrativa je připravena předefinovat právní hranice, aby ospravedlnila pochybné praktiky, takže společnosti trvající na bezpečnostních standardech umělé inteligence jsou zbytečné.

Tento přístup podkopává snahy o vytvoření bezpečné umělé inteligence. Vývoj smrtících a nesmrtících verzí stejné technologie je ze své podstaty rozporuplný. Vážné diskuse o mezinárodních orgánech regulujících škodlivé používání AI utichly a ustoupily kruté realitě, že budoucnost války je neoddělitelně spjata s AI.

Dlouhodobé následky jsou děsivé. Pokud se společnostem a vládám nepodaří omezit potenciál této technologie k násilí, budoucnost samotné umělé inteligence by se mohla stát agresivnější a nepředvídatelnější. Otázkou není, zda AI změní válčení; otázkou je, zda válka zkazí AI.

Převaha digitální technologie nakonec nevratným způsobem přetváří lidstvo. Zatímco politické režimy mohou stoupat a klesat, vzestup AI je silou, která přežije i ty nejmocnější vůdce. Skutečné bojiště je nyní nejen mezi státy, ale také mezi ideály bezpečnosti a požadavky absolutní moci.