Министерство обороны США (МО) оказалось под ударом из-за предполагаемого наказания компании Anthropic, занимающейся разработкой искусственного интеллекта, после того как она попыталась ограничить использование её инструментов военными. Судья окружного суда США, Рита Лин, выразила обеспокоенность во время слушания во вторник, заявив, что действия МО выглядят как «попытка подорвать» Anthropic, потенциально нарушая права компании, гарантированные Первой поправкой к Конституции.

Разногласия по Вопросу Развёртывания Военного ИИ

Anthropic подала два федеральных иска, утверждая, что МО отомстило ей, признав компанию угрозой безопасности после того, как она настояла на ограничениях использования её ИИ военными. Этот статус фактически затрудняет Anthropic ведение бизнеса с государственными подрядчиками, даже теми, которые работают над проектами, не связанными с обороной.

МО, теперь называющее себя Департаментом Войны (ДВ), утверждает, что его действия были предприняты после того, как было установлено, что инструментам ИИ Anthropic больше нельзя доверять в критических операциях. Однако судья Лин усомнилась в том, что карательные меры — статус, обычно резервируемый для иностранных противников и враждебных субъектов, — были соразмерны заявленным опасениям по поводу национальной безопасности.

Юридическая Битва и Общественный Шум

Anthropic добивается временного запрета на приостановку статуса угрозы безопасности, надеясь успокоить клиентов, которые не решаются продолжать сотрудничество с компанией в текущих условиях. Ожидается, что решение судьи Лин по этому вопросу будет вынесено в течение нескольких дней.

Этот спор вызвал более широкие дебаты об увеличении использования ИИ вооружёнными силами и о том, должны ли технологические компании уступать правительству в определении того, как развёртываются их технологии. Действия МО ставят под вопрос баланс между национальной безопасностью и корпоративной автономией в эпоху стремительно развивающегося ИИ.

Сомнительные Полномочия и Эскалация

Во время слушания адвокат администрации Трампа признал, что у секретаря Питера Хегсета не было законных оснований запрещать военным подрядчикам использовать Anthropic для работ, не связанных с МО, несмотря на то, что Хегсет опубликовал об этом в X (ранее Twitter) в прошлом месяце. Это признание ещё больше усиливает подозрения в том, что действия МО были мотивированы местью, а не законными опасениями по поводу безопасности.

Пентагон заявляет, что переходит от технологий Anthropic, планируя заменить их альтернативами от Google, OpenAI и xAI, одновременно принимая меры для предотвращения вмешательства Anthropic в свои модели ИИ во время перехода. Компания оспаривает это утверждение, заявляя, что она не может обновлять свои модели без разрешения Пентагона.

Что на Кону

Это дело подчеркивает сложные отношения между частными технологическими компаниями и государственными учреждениями в разработке и развёртывании ИИ. Если Anthropic добьётся успеха в своём судебном иске, это может создать прецедент для того, как правительство относится к фирмам, занимающимся ИИ, которые сопротивляются военному применению своих технологий. Ожидается, что федеральный апелляционный суд в Вашингтоне также вынесет решение в ближайшее время, которое может ещё больше уточнить юридические границы этого конфликта.

Эта ситуация показывает, что по мере интеграции ИИ в национальную безопасность вопрос корпоративного влияния и государственного произвола будет только обостряться.