Wrzawa wokół „agentów AI” – obietnicy generatywnych robotów AI, które automatyzują zadania i zmieniają świat pracy – wyprzedziła rzeczywistość. Chociaż rok 2025 ogłoszono jako rok przełomowy, faktycznym rezultatem było odroczenie na czas nieokreślony tego przemieniającego momentu. Coraz większa liczba badań sugeruje, że podstawowe ograniczenia obecnych architektur sztucznej inteligencji mogą uniemożliwić pojawienie się naprawdę niezawodnych, w pełni zautomatyzowanych systemów.
Matematyczne bariery dla sztucznej inteligencji
Niedawne, mało znane badanie Hallucination Station: On Some Basic Limits of Transformer Language Models dowodzi, że duże modele językowe (LLM) mają nieodłączne ograniczenia matematyczne, które uniemożliwiają im niezawodne wykonywanie złożonych zadań. Według Vishala Sikki, byłego dyrektora ds. technologii SAP i przedsiębiorcy zajmującego się sztuczną inteligencją, modele te „nie mogą być niezawodne” nawet przy zaawansowanych możliwościach wnioskowania. Oznacza to, że krytyczne zastosowania, takie jak sterowanie elektrownią jądrową, pozostają poza zasięgiem nowoczesnych technologii AI.
Kodowanie jako fałszywy świt?
Pomimo tych ograniczeń branża AI podkreśla postęp w obszarach takich jak kodowanie, w których agenci AI odnieśli pewne sukcesy. Demis Hassabis z Google poinformował o przełomach w ograniczaniu „halucynacji” generowanych przez sztuczną inteligencję w Davos, a start-upy takie jak Harmonic forsują narrację agentów. Harmonic, którego współzałożycielem jest dyrektor generalny Robinhood Vlad Tenev, twierdzi, że narzędzie do kodowania AI, Arystoteles, wykorzystuje formalną weryfikację matematyczną, aby zapewnić niezawodność. Jednak to podejście jest obecnie ograniczone do testowalnych obszarów, takich jak kod, z wyłączeniem zadań subiektywnych lub kreatywnych, takich jak pisanie esejów.
Halucynacje: nieuleczalna wada?
Rzeczywistość jest taka, że halucynacje AI są nadal wszechobecne. Badania OpenAI pokazują, że nawet najbardziej zaawansowane modele, takie jak ChatGPT, konsekwentnie fabrykują informacje, błędnie podając fakty ze 100% dokładnością. Ta zawodność ogranicza szerokie zastosowanie w środowiskach korporacyjnych, gdzie błędy mogą zakłócać przepływ pracy i eliminować potencjalną wartość.
Pragmatyczna ścieżka naprzód
Liderzy branży potwierdzają trwałość halucynacji, ale uważają, że można je złagodzić za pomocą zabezpieczeń i mechanizmów filtrujących. Sikka przewiduje budowanie komponentów wokół LLM, aby pokonać ich ograniczenia, a Achim z Harmonic twierdzi, że halucynacje mogą być nawet niezbędne do rozwoju sztucznej inteligencji wykraczającej poza ludzką inteligencję. Ogólny konsensus jest taki, że przepaść między bezpiecznikami a halucynacjami będzie się z czasem zmniejszać, prowadząc do stopniowej poprawy, a nie do nagłej rewolucji.
Ogólny obraz: automatyzacja jest nieunikniona, niezawodność to stały kompromis
Pomimo przeszkód matematycznych i praktycznych dynamika agentów AI jest niezaprzeczalna. Zachęty finansowe i presja konkurencyjna zapewniają ciągłe inwestycje i rozwój. W miarę dojrzewania systemy sztucznej inteligencji będą nieuchronnie wykonywać więcej zadań poznawczych, nawet jeśli niezawodność pozostanie niedoskonała. Efektem końcowym nie jest to, czy będą istnieć agenci sztucznej inteligencji, ale jaki poziom ryzyka społeczeństwo jest skłonne tolerować ze względu na szybkość i oszczędności.
Ostatecznie pytanie nie brzmi, czy sztuczna inteligencja jest „dobra” czy „zła”, ale w jaki sposób technologia robi, aby zmienić działalność człowieka, jak sugeruje pionier informatyki Alan Kay. Być może wkraczamy w erę masowej automatyzacji poznawczej, której konsekwencji może nie da się matematycznie przetestować.























