Anthropic, ведущая лаборатория искусственного интеллекта, категорически отрицает обвинения в том, что она может намеренно нарушить или отключить свою модель ИИ Claude, если она будет развернута для военного использования правительством США. Этот спор разгорается на фоне стремления Пентагона запретить технологию Anthropic из-за опасений по поводу возможного вмешательства в критические операции.

Суть Конфликта

Министерство обороны (МО) США обозначило Anthropic как «риск в цепочке поставок», фактически предотвратив ее использование, в том числе через подрядчиков. Это действие вызвано опасениями, что Anthropic может в одностороннем порядке отключить доступ к Claude, изменить ее функциональность или внедрить вредоносные обновления, если она не согласится с определенными военными приложениями. МО утверждает, что такие действия могут поставить под угрозу действующие операции.

Глава отдела государственного сектора Anthropic, Тиягу Рамасами, утверждает, что компания не обладает техническими возможностями для саботажа собственных технологий после их развертывания. В судебных документах Рамасами заявил, что Anthropic «не имеет доступа, необходимого для отключения технологии или изменения поведения модели до или во время текущих операций». Он подчеркнул, что «черного хода» или «выключателя» не существует, и любые обновления потребуют одобрения как правительства, так и облачного провайдера Amazon Web Services.

Судебные Иски и Финансовые Последствия

Anthropic подала два иска, оспаривая запрет МО как неконституционный. Компания добивалась экстренного судебного решения об отмене этого запрета, но переговоры сорвались, несмотря на готовность Anthropic контрактным путем гарантировать, что она не будет накладывать вето на законные военные решения. Пентагон остается скептичным, заявив, что принимает «дополнительные меры для смягчения рисков в цепочке поставок», работая с облачными провайдерами, чтобы предотвратить односторонние изменения со стороны Anthropic.

Последствия запрета уже ощутимы: клиенты отменяют сделки. Anthropic утверждает, что этот спор может стоить компании миллиарды долларов в доходах. Судебное заседание назначено на 24 марта, где судья может вынести решение о временной отмене запрета.

Более Широкий Контекст

Этот конфликт подчеркивает растущую напряженность между разработчиками ИИ и интересами национальной безопасности. Пентагон использовал Claude для анализа данных, составления служебных записок и даже помощи в разработке боевых планов. Опасения правительства небезосновательны: другие лаборатории ИИ, такие как OpenAI, первоначально запретили военное использование, прежде чем разрешить его через партнерства с Microsoft. В то же время компании, такие как Smack Technologies, уже обучают модели, предназначенные специально для боевых действий.

Этот инцидент поднимает критический вопрос: в какой степени частные компании, разрабатывающие ИИ, должны иметь контроль над технологиями, развернутыми в контексте национальной безопасности? Дискуссии выходят за рамки Anthropic, поскольку вся индустрия ИИ сталкивается с этическими и стратегическими последствиями военного применения.

В конечном счете, спор между Anthropic и Пентагоном служит предупреждением о том, что интеграция ИИ в военное дело сопряжена с неопределенностью и рисками, требуя тщательного рассмотрения как технологических возможностей, так и потенциальных конфликтов интересов.