Der Hype um „KI-Agenten“ – das Versprechen generativer KI-Roboter, die Aufgaben automatisieren und Arbeit neu gestalten – hat die Realität übertroffen. Während 2025 als das Jahr des Durchbruchs angepriesen wurde, war das wahre Ergebnis eine Verschiebung dieses transformativen Moments auf unbestimmte Zeit. Eine wachsende Zahl von Forschungsergebnissen legt nahe, dass grundlegende Einschränkungen innerhalb aktueller KI-Architekturen möglicherweise verhindern, dass jemals wirklich zuverlässige, vollautomatische Systeme entstehen.

Mathematische Hindernisse für künstliche Intelligenz

Eine aktuelle, wenig beachtete Studie mit dem Titel „Hallucination Stations: On Some Basic Limitations of Transformer-Based Language Models“ argumentiert, dass Large Language Models (LLMs) inhärente mathematische Einschränkungen haben, die sie daran hindern, komplexe Aufgaben zuverlässig auszuführen. Laut Vishal Sikka, einem ehemaligen SAP-CTO und KI-Unternehmer, können diese Modelle selbst mit fortgeschrittenen Argumentationsfähigkeiten „nicht zuverlässig sein“. Dies bedeutet, dass kritische Anwendungen wie die Steuerung von Kernkraftwerken völlig außerhalb der Reichweite der aktuellen KI-Technologie liegen.

Codierung als falsche Morgendämmerung?

Trotz dieser Einschränkungen legt die KI-Branche Wert auf Fortschritte in Bereichen wie der Codierung, wo KI-Agenten einige Erfolge gezeigt haben. Demis Hassabis von Google in Davos berichtete von Durchbrüchen bei der Reduzierung von „Halluzinationen“ – KI-generierten Fehlern – und Start-ups wie Harmonic treiben die Agenten-Erzählung voran. Harmonic, Mitbegründer von Robinhood-CEO Vlad Tenev, behauptet, sein KI-Codierungstool Aristotle verwende formale mathematische Verifizierung, um Zuverlässigkeit sicherzustellen. Allerdings ist dieser Ansatz derzeit auf überprüfbare Bereiche wie Code beschränkt und schließt subjektive oder kreative Aufgaben wie das Schreiben von Aufsätzen aus.

Halluzinationen: Ein inhärenter Fehler?

Die Realität ist, dass KI-Halluzinationen nach wie vor allgegenwärtig sind. Die eigene Forschung von OpenAI zeigt, dass selbst hochmoderne Modelle wie ChatGPT durchgängig Informationen fabrizieren und Fakten mit 100-prozentiger Genauigkeit falsch wiedergeben. Diese Unzuverlässigkeit behindert eine weit verbreitete Einführung in Unternehmensumgebungen, wo Fehler Arbeitsabläufe stören und potenziellen Wert zunichte machen können.

Ein pragmatischer Weg nach vorne

Branchenführer sind sich der anhaltenden Halluzinationen bewusst, glauben jedoch, dass sie durch Leitplanken und Filtermechanismen gemildert werden können. Sikka schlägt vor, Komponenten rund um LLMs zu bauen, um deren Einschränkungen zu überwinden, während Achim von Harmonic argumentiert, dass Halluzinationen möglicherweise sogar notwendig sind, um die KI über die menschliche Intelligenz hinaus voranzutreiben. Der Branchenkonsens besteht darin, dass die Kluft zwischen Leitplanken und Halluzinationen mit der Zeit kleiner wird, was eher zu schrittweisen Verbesserungen als zu einer plötzlichen Revolution führt.

Das Gesamtbild: Automatisierung ist unvermeidlich, Zuverlässigkeit ein ständiger Kompromiss

Trotz der mathematischen und praktischen Hürden ist die Dynamik hinter KI-Agenten unbestreitbar. Die finanziellen Anreize und der Wettbewerbsdruck sorgen für kontinuierliche Investitionen und Entwicklung. Mit der Weiterentwicklung von KI-Systemen werden sie unweigerlich mehr kognitive Aufgaben erfüllen, auch wenn die Zuverlässigkeit noch unvollkommen bleibt. Das Endergebnis ist nicht, ob KI-Agenten existieren werden, sondern wie viel Risiko die Gesellschaft bereit ist, aus Gründen der Geschwindigkeit und Kosteneinsparungen zu tolerieren.

Letztendlich geht es bei der Frage nicht um „gute“ oder „schlechte“ KI, sondern darum, was die Technologie tut, um menschliche Aktivitäten umzugestalten, wie der Computerpionier Alan Kay vorschlägt. Möglicherweise betreten wir eine Ära massiver kognitiver Automatisierung, deren Folgen mathematisch wahrscheinlich nicht mehr zu überprüfen sein werden.