Americká vláda oficiálně označila Anthropic, přední společnost zabývající se umělou inteligencí, za „nepřijatelné“ riziko pro národní bezpečnost. Rozhodnutí přichází uprostřed obav, že by společnost mohla potenciálně manipulovat se svými technologiemi AI, včetně populárního chatbota Claude, aby upřednostnila své zájmy před strategickými cíli USA, zejména v konfliktních situacích.

Vládní obavy z manipulace s umělou inteligencí

Ve 40stránkovém spisu u amerického okresního soudu pro severní okres Kalifornie vládní právníci tvrdili, že systémy umělé inteligence jsou „extrémně zranitelné vůči manipulaci“. Poskytnutí přístupu Anthropic k infrastruktuře ministerstva obrany (DoD) by podle nich zavedlo nepřijatelná zranitelnost do vojenských dodavatelských řetězců. Výzva zdůraznila, že kontrola Anthropic nad její technologií vytváří riziko, že by společnost mohla deaktivovat nebo změnit systémy způsobem, který poškozuje bojové schopnosti USA.

Reakce společnosti Anthropic a probíhající právní bitva

Anthropic tato tvrzení veřejně popřel s odkazem na prohlášení generálního ředitele Daria Amodeie, který zdůraznil, že rozhodnutí o použití umělé inteligence pro vojenské účely činí armáda, nikoli jeho společnost. Amodei řekl, že Anthropic nikdy neoponoval ani neomezoval vojenské operace využívající svou technologii.

Postoj vlády však vedl k soudnímu řízení. Dne 9. března podal Anthropic dvě žaloby napadající nedávné rozhodnutí ministra obrany Peta Hegsetha označit společnost za „riziko dodavatelského řetězce“ – jednu u okresního soudu v Kalifornii a druhou u amerického odvolacího soudu pro okres Columbia Circuit.

Proč na tom záleží: Širší kontext

Spor zdůrazňuje rostoucí napětí mezi rychlým rozvojem umělé inteligence a obavami o národní bezpečnost. Vlády po celém světě stále více zkoumají společnosti AI, zejména ty, které mají přístup k citlivým vojenským nebo vládním systémům. Tento případ ukazuje inherentní rizika používání soukromé infrastruktury AI pro kritické obranné účely.

Kroky vlády USA signalizují širší trend ke zvýšené kontrole dodavatelských řetězců AI, což může vést k přísnějším regulacím pro společnosti působící v oblasti národní bezpečnosti. Výsledek soudního sporu společnosti Anthropic pravděpodobně vytvoří precedens pro to, jak vlády budou v budoucnu řídit rizika AI.

Situaci dále komplikuje, že vláda používá termín „ministerstvo války“ namísto „ministerstva obrany“, což je preference, která zůstává z Trumpovy administrativy a přidává do sporu další vrstvu politického kontextu.

V konečném důsledku představuje hodnocení Antropické vlády USA jako národní bezpečnostní hrozby kritický moment ve vyvíjejícím se vztahu mezi technologiemi umělé inteligence a obrannými strategiemi.