Anthropic, провідна лабораторія штучного інтелекту, категорично заперечує звинувачення в тому, що вона може навмисно порушити або відключити свою модель ІІ Claude, якщо її розгорнуть для військового використання урядом США. Ця суперечка розгорається на тлі прагнення Пентагону заборонити технологію Anthropic через побоювання щодо можливого втручання у критичні операції.
Суть Конфлікту
Міністерство оборони (МО) США означило Anthropic як «ризик у ланцюжку поставок», фактично запобігши її використанню, у тому числі через підрядників. Ця дія викликана побоюваннями, що Anthropic може в односторонньому порядку відключити доступ до Claude, змінити її функціональність або впровадити шкідливі оновлення, якщо вона не погодиться з певними військовими програмами. МО стверджує, що такі дії можуть поставити під загрозу операції, що діють.
Глава відділу державного сектору Anthropic, Тіягу Рамасамі, стверджує, що компанія не має технічних можливостей для саботажу власних технологій після їх розгортання. У судових документах Рамасамі заявив, що Anthropic “не має доступу, необхідного для відключення технології або зміни поведінки моделі до або під час поточних операцій”. Він наголосив, що «чорного ходу» або «вимикача» не існує, і будь-які оновлення вимагатимуть схвалення як уряду, так і хмарного провайдера Amazon Web Services.
Судові Позови та Фінансові Наслідки
Anthropic подала два позови, заперечуючи заборону МО як неконституційну. Компанія домагалася екстреного судового рішення про відміну цієї заборони, але переговори зірвалися, незважаючи на готовність Anthropic контрактним шляхом гарантувати, що вона не накладатиме вето на законні військові рішення. Пентагон залишається скептичним, заявивши, що вживає «додаткових заходів для пом’якшення ризиків у ланцюжку поставок», працюючи з хмарними провайдерами, щоб запобігти одностороннім змінам з боку Anthropic.
Наслідки заборони вже відчутні: клієнти скасовують угоди. Anthropic стверджує, що ця суперечка може коштувати компанії мільярди доларів у доходах. Судове засідання призначене на 24 березня, де суддя може винести рішення про тимчасове скасування заборони.
Більш Широкий Контекст
Цей конфлікт підкреслює зростаючу напруженість між розробниками ІІ та інтересами національної безпеки. Пентагон використовував Claude для аналізу даних, складання службових записок і навіть допомоги у розробці бойових планів. Побоювання уряду є небезпідставними: інші лабораторії ІІ, такі як OpenAI, спочатку заборонили військове використання, перш ніж дозволити його через партнерства з Microsoft. У той же час компанії, такі як Smack Technologies, вже навчають моделей, призначених спеціально для бойових дій.
Цей інцидент порушує критичне питання: якою мірою приватні компанії, які розробляють ІІ, повинні мати контроль над технологіями, розгорнутими в контексті національної безпеки? Дискусії виходять за рамки Anthropic, оскільки вся індустрія ІІ стикається з етичними та стратегічними наслідками військового застосування.
Зрештою, суперечка між Anthropic і Пентагоном є попередженням про те, що інтеграція ІІ у військову справу пов’язана з невизначеністю та ризиками, вимагаючи ретельного розгляду як технологічних можливостей, так і потенційних конфліктів інтересів.














































