Правительство США официально признало Anthropic, ведущую компанию в области искусственного интеллекта, «неприемлемым» риском для национальной безопасности. Это решение обусловлено опасениями, что компания потенциально может манипулировать своими технологиями ИИ, включая популярного чат-бота Claude, чтобы отдавать приоритет своим интересам над стратегическими целями США, особенно в условиях конфликта.
Правительственные Опасения по Поводу Манипуляций с ИИ
В 40-страничном обращении в окружной суд США по Северному округу Калифорнии юристы правительства утверждали, что системы ИИ «чрезвычайно уязвимы для манипуляций». Предоставление Anthropic доступа к инфраструктуре Министерства обороны (МО), по их словам, введёт неприемлемые уязвимости в военные цепочки поставок. В обращении было подчеркнуто, что контроль Anthropic над своими технологиями создаёт риск того, что компания может отключить или изменить системы способами, которые нанесут ущерб боевым возможностям США.
Ответ Anthropic и Продолжающаяся Юридическая Битва
Anthropic публично опровергла эти утверждения, ссылаясь на заявления генерального директора Дарио Амодеи, который подчеркнул, что решения по использованию ИИ в военных целях принимаются вооружёнными силами, а не его компанией. Амодеи заявил, что Anthropic никогда не возражала и не ограничивала военные операции с использованием её технологий.
Однако позиция правительства привела к судебным разбирательствам. 9 марта Anthropic подала два иска, оспаривающих недавнее решение госсекретаря по обороне Пита Хегсета признать компанию «риском для цепочки поставок» – одно в окружном суде Калифорнии и другое в Апелляционном суде США для округа Колумбия.
Почему Это Важно: Более Широкий Контекст
Этот спор подчёркивает растущую напряжённость между быстрым развитием ИИ и соображениями национальной безопасности. Правительства во всем мире всё чаще проверяют компании, занимающиеся ИИ, особенно те, у которых есть доступ к конфиденциальным военным или правительственным системам. Этот случай демонстрирует присущие риски использования частной инфраструктуры ИИ в критически важных оборонных целях.
Действия правительства США сигнализируют о более широкой тенденции к усилению контроля над цепочками поставок ИИ, что потенциально может привести к более строгим правилам для компаний, работающих в сфере национальной безопасности. Результаты судебных разбирательств Anthropic, вероятно, создадут прецедент для того, как правительства будут управлять рисками, связанными с ИИ, в будущем.
Ситуацию ещё усложняет тот факт, что правительство использует термин «Министерство Войны» вместо «Министерства Обороны», предпочтение, которое осталось со времён администрации Трампа, добавляя ещё один слой политического контекста к спору.
В конечном итоге, оценка Anthropic правительством США как угрозы национальной безопасности представляет собой критический момент в развивающихся отношениях между технологиями ИИ и оборонными стратегиями.























