Anthropic, přední laboratoř umělé inteligence, důrazně odmítá obvinění, že by mohla úmyslně narušit nebo deaktivovat svůj model Claude AI, pokud by byl nasazen pro vojenské účely americkou vládou. Kontroverze přichází, když se Pentagon snaží zakázat technologii Anthropic kvůli obavám z možného narušení kritických operací.

Podstata konfliktu

Americké ministerstvo obrany (DoD) označilo Anthropic za „riziko dodavatelského řetězce“, čímž účinně brání jeho použití, a to i prostřednictvím dodavatelů. Tento krok pramení z obav, že by Anthropic mohl jednostranně zakázat přístup ke Claude, změnit jeho funkčnost nebo zavést škodlivé aktualizace, pokud by nesouhlasí s určitými vojenskými aplikacemi. MO argumentuje tím, že by takové jednání mohlo ohrozit stávající provoz.

Vedoucí veřejného sektoru společnosti Anthropic Thiyagu Ramasamy tvrdí, že společnost nemá technické možnosti na to, aby po nasazení sabotovala vlastní technologii. V soudních dokumentech Ramasamy uvedl, že Anthropic “nemá přístup nezbytný k deaktivaci technologie nebo změně chování modelu před nebo během probíhajících operací.” Zdůraznil, že neexistují žádná „zadní vrátka“ nebo „zabíjet přepínač“ a jakékoli aktualizace budou vyžadovat souhlas vlády i poskytovatele cloudu Amazon Web Services.

Soudní spory a finanční důsledky

Společnost Anthropic podala dvě žaloby, které zákaz MO napadají jako protiústavní. Společnost požádala o vydání nouzového soudního příkazu ke zrušení zákazu, ale jednání ztroskotala i přes ochotu Anthropic smluvně zaručit, že nebude vetovat legitimní vojenská rozhodnutí. Pentagon zůstává skeptický a říká, že přijímá „dodatečná opatření ke zmírnění rizik dodavatelského řetězce“ tím, že spolupracuje s poskytovateli cloudu, aby zabránil jednostranným změnám ze strany Anthropic.

Důsledky zákazu jsou již patrné: klienti ruší transakce. Společnost Antropic tvrdí, že spor by mohl společnost přijít o miliardy dolarů. Soudní jednání je naplánováno na 24. března, kde by soudce mohl rozhodnout o dočasném zrušení zákazu.

Širší kontext

Konflikt zdůrazňuje rostoucí napětí mezi vývojáři AI a národními bezpečnostními zájmy. Pentagon využíval Clauda k analýze dat, psaní poznámek a dokonce k pomoci při vývoji bitevních plánů. Obavy vlády nejsou neopodstatněné: jiné laboratoře umělé inteligence, jako je OpenAI, původně vojenské použití zakázaly, než to umožnily prostřednictvím partnerství s Microsoftem. Společnosti jako Smack Technologies už přitom cvičí modely určené přímo pro boj.

Tento incident vyvolává kritickou otázku: do jaké míry by měly mít soukromé společnosti vyvíjející AI kontrolu nad technologiemi nasazenými v kontextu národní bezpečnosti? Debata přesahuje rámec Anthropic, protože celý průmysl umělé inteligence se potýká s etickými a strategickými důsledky vojenských aplikací.

Spor mezi Anthropic a Pentagonem nakonec slouží jako varování, že integrace umělé inteligence do armády je plná nejistoty a rizik, což vyžaduje pečlivé zvážení jak technologických možností, tak potenciálních střetů zájmů.