Настаивание правительства США на интеграции искусственного интеллекта в военные операции создает жесткую дилемму для компаний, работающих в сфере ИИ: отдавать приоритет стандартам безопасности или обеспечивать себе выгодные оборонные контракты. Эта напряженность достигла апогея, когда Пентагон подверг Anthropic, ведущую компанию в области ИИ, тщательному контролю из-за ее нежелания в полной мере участвовать в определенных «смертоносных операциях», что потенциально ставит под угрозу контракт на 200 миллионов долларов. Это посылает четкий сигнал другим компаниям – OpenAI, xAI и Google – которые в настоящее время работают с Министерством обороны над несекретными проектами: полное соответствие ожидается, если они стремятся к получению высшего уровня допуска.
Ставки Выше Прибыли
Речь идет не только о деньгах. Приверженность Anthropic принципам безопасности ИИ, редкая позиция в отрасли, привела ее в противоречие с политикой администрации, направленной на неограниченное военное развитие ИИ. Сообщается, что компания может даже быть признана «риском для цепочки поставок» – обозначение, обычно резервируемое для организаций, связанных с враждебными государствами, такими как Китай. Это фактически отрезало бы оборонные фирмы от использования ИИ Anthropic, вынуждая их искать альтернативы с меньшими этическими колебаниями.
Суть вопроса заключается в том, оправдывает ли стремление к национальной безопасности компромисс с теми самыми принципами, которые многие разработчики ИИ утверждают, что поддерживают. Пентагон не хочет слышать об «исключениях» или «юридических тонкостях», когда речь идет о смертельных применениях. Как откровенно заявил один из чиновников, компании, работающие с ИИ, должны взять на себя обязательство «делать все необходимое, чтобы победить». Это ставит тревожный вопрос: неизбежно ли то, что государственные требования к военному использованию сделают ИИ менее безопасным?
Парадокс Безопасности и Войны
Лидеры в области ИИ сами признают беспрецедентную силу этой технологии. Многие компании были основаны на предпосылке достижения общего искусственного интеллекта (AGI) – сверхинтеллекта – при одновременном предотвращении широкомасштабного вреда. Илон Маск, когда-то ярый сторонник регулирования ИИ, основал OpenAI из страха, что бесконтрольное развитие будет катастрофическим.
Anthropic выделяется на фоне остальных, глубоко интегрируя предохранительные механизмы в свои модели, стремясь предотвратить их эксплуатацию злонамеренными субъектами. Это соответствует этическим принципам, сформулированным десятилетия назад Айзеком Азимовым в его законах робототехники: ИИ не должен причинять вред людям. Однако настойчивость Пентагона на неограниченном военном использовании подрывает эту основу.
Неизбежная Гонка Вооружений?
США могут использовать свое преимущество в области ИИ против таких противников, как Венесуэла, с относительной безнаказанностью, но сложные противники неизбежно разработают свои собственные системы ИИ для национальной безопасности. Это спровоцирует полномасштабную гонку вооружений, в которой правительства будут отдавать приоритет военному господству над этическими соображениями. Администрация, похоже, готова переопределить юридические границы, чтобы оправдать сомнительные практики, делая компании, настаивающие на стандартах безопасности ИИ, ненужными.
Этот подход подрывает усилия по созданию безопасного ИИ. Разработка смертельных и несмертельных версий одной и той же технологии внутренне противоречива. Серьезные обсуждения о международных органах, регулирующих вредоносное применение ИИ, заглохли, уступив место суровой реальности: будущее войны неразрывно связано с ИИ.
Долгосрочные последствия ужасают. Если компаниям и правительствам не удастся обуздать потенциал этой технологии для насилия, будущее самого ИИ может стать более агрессивным и непредсказуемым. Вопрос не в том, изменит ли ИИ войну; вопрос в том, испортит ли война ИИ.
В конечном счете, доминирование цифровых технологий перестраивает человечество необратимым образом. В то время как политические режимы могут подниматься и падать, расцвет ИИ – это сила, которая переживет даже самых могущественных лидеров. Настоящее поле битвы теперь не только между государствами, но и между идеалами безопасности и требованиями абсолютной власти.























