Ажіотаж навколо «агентів штучного інтелекту» — обіцянок генеративних роботів штучного інтелекту, які автоматизують завдання та змінять світ праці — випередив реальність. Хоча 2025 рік був проголошений роком прориву, фактичним результатом стало відтермінування цього моменту трансформації на невизначений термін. Все більше досліджень свідчать про те, що фундаментальні обмеження поточних архітектур ШІ можуть перешкодити появі справді надійних, повністю автоматизованих систем.

Математичні бар’єри для штучного інтелекту

Недавнє маловідоме дослідження Hallucination Station: On Some Basic Limits of Transformer Language Models стверджує, що великі мовні моделі (LLM) мають математичні обмеження, які не дозволяють їм надійно виконувати складні завдання. За словами Вішала Сікки, колишнього технічного директора SAP і підприємця зі штучного інтелекту, ці моделі «не можуть бути безпомилковими», навіть із розширеними можливостями аргументації. Це означає, що критичні програми, такі як керування атомними електростанціями, залишаються поза межами досяжності сучасних технологій ШІ.

Кодування як False Dawn?

Незважаючи на ці обмеження, індустрія штучного інтелекту підкреслює прогрес у таких сферах, як кодування, де агенти ШІ продемонстрували певний успіх. Деміс Хассабіс з Google повідомив про прорив у зменшенні «галюцинацій», створених штучним інтелектом, у Давосі, а такі стартапи, як Harmonic, просувають розповідь агента. Компанія Harmonic, співзасновником якої є генеральний директор Robinhood Влад Тенев, каже, що її інструмент кодування ШІ Aristotle використовує формальну математичну перевірку для забезпечення надійності. Однак цей підхід наразі обмежується перевіреними областями, такими як код, за винятком суб’єктивних або творчих завдань, таких як написання есе.

Галюцинації: невиліковна вада?

Реальність така, що галюцинації ШІ залишаються всюдисущими. Дослідження OpenAI показують, що навіть найдосконаліші моделі, такі як ChatGPT, постійно вигадують інформацію, неправильно повідомляючи факти зі 100% точністю. Ця ненадійність обмежує широке впровадження в корпоративному середовищі, де помилки можуть порушити робочі процеси та знищити потенційну цінність.

Прагматичний шлях вперед

Лідери галузі визнають стійкість галюцинацій, але вважають, що їх можна пом’якшити за допомогою засобів захисту та механізмів фільтрації. Сікка передбачає створення компонентів навколо LLM, щоб подолати їх обмеження, а Ахім з Harmonic стверджує, що галюцинації можуть навіть бути необхідними для розвитку штучного інтелекту поза межами людського інтелекту. Загальний консенсус полягає в тому, що прірва між запалом і галюцинаціями з часом зменшиться, що призведе до поступових покращень, а не до раптової революції.

Загальна картина: автоматизація неминуча, надійність – це постійний компроміс

Незважаючи на математичні та практичні перешкоди, імпульс агентів ШІ незаперечний. Фінансові стимули та конкурентний тиск забезпечують безперервне інвестування та розвиток. Коли системи штучного інтелекту розвиваються, вони неминуче виконуватимуть більше когнітивних завдань, навіть якщо надійність залишається недосконалою. Кінцевий результат полягає не в тому, чи існуватимуть агенти ШІ, а в тому, який рівень ризику суспільство готове терпіти заради швидкості та економії коштів.

Зрештою, питання полягає не в тому, «хороший» чи «поганий» штучний інтелект, а в тому, що робить технологія, щоб змінити людську діяльність, як припускає піонер інформатики Алан Кей. Можливо, ми вступаємо в еру масової когнітивної автоматизації, наслідки якої неможливо перевірити математично.