Шум вокруг «ИИ-агентов» – обещания генеративных ИИ-роботов, автоматизирующих задачи и меняющих мир труда – обогнал реальность. Хотя 2025 год провозглашался годом прорыва, фактическим результатом стала неопределённая отсрочка этого преобразующего момента. Растущее число исследований предполагает, что фундаментальные ограничения современных ИИ-архитектур могут помешать появлению действительно надёжных, полностью автоматизированных систем.
Математические Барьеры Искусственного Интеллекта
Недавнее, малоизвестное исследование «Станции Галлюцинаций: Об Одних Базовых Ограничениях Трансформерных Языковых Моделей» утверждает, что у Больших Языковых Моделей (LLM) есть присущие математические ограничения, которые не позволяют им надёжно выполнять сложные задачи. По словам Вишала Сикки, бывшего технического директора SAP и ИИ-предпринимателя, эти модели “не могут быть надёжными”, даже с продвинутыми возможностями рассуждения. Это означает, что критически важные приложения, такие как управление ядерными электростанциями, остаются вне досягаемости современных ИИ-технологий.
Кодирование как Ложная Заря?
Несмотря на эти ограничения, ИИ-индустрия подчёркивает прогресс в таких областях, как кодирование, где ИИ-агенты продемонстрировали некоторый успех. Демис Хассабис из Google на Давосе сообщил о прорывах в снижении “галлюцинаций” – ошибок, генерируемых ИИ, – а стартапы, такие как Harmonic, продвигают нарратив об агентах. Harmonic, сооснователем которого является генеральный директор Robinhood Влад Тенев, утверждает, что его ИИ-инструмент для кодирования, Аристотель, использует формальную математическую верификацию для обеспечения надёжности. Однако этот подход в настоящее время ограничен проверяемыми областями, такими как код, исключая субъективные или творческие задачи, такие как написание эссе.
Галлюцинации: Неизлечимый Недостаток?
Реальность такова, что ИИ-галлюцинации остаются повсеместными. Исследования OpenAI показывают, что даже самые современные модели, такие как ChatGPT, последовательно фабрикуют информацию, неверно сообщая о фактах с 100% точностью. Эта ненадежность сдерживает широкое распространение в корпоративной среде, где ошибки могут нарушить рабочие процессы и свести на нет потенциальную ценность.
Прагматичный Путь Вперёд
Лидеры индустрии признают сохранение галлюцинаций, но считают, что их можно смягчить с помощью предохранителей и фильтрующих механизмов. Сикка предполагает создание компонентов вокруг LLM для преодоления их ограничений, а Ахим из Harmonic утверждает, что галлюцинации могут быть даже необходимы для развития ИИ за пределы человеческого интеллекта. Общий консенсус заключается в том, что разрыв между предохранителями и галлюцинациями будет сокращаться с течением времени, что приведёт к постепенным улучшениям, а не к внезапной революции.
Большая Картина: Автоматизация Неизбежна, Надёжность – Постоянный Компромисс
Несмотря на математические и практические препятствия, импульс ИИ-агентов неоспорим. Финансовые стимулы и конкурентное давление обеспечивают продолжение инвестиций и разработок. По мере развития ИИ-систем они неизбежно будут выполнять больше когнитивных задач, даже если надёжность останется несовершенной. Конечным результатом является не то, будут ли существовать ИИ-агенты, а то, какой уровень риска общество готово терпеть ради скорости и экономии затрат.
В конечном счёте, вопрос не в том, является ли ИИ «хорошим» или «плохим», а в том, что эта технология делает для изменения человеческой деятельности, как предполагает пионер информатики Алан Кей. Мы можем вступать в эпоху массовой когнитивной автоматизации, последствия которой, вероятно, невозможно будет математически проверить.























