De hype rond ‘AI-agents’ – de belofte van generatieve AI-robots die taken automatiseren en werk hervormen – heeft de werkelijkheid voorbijgestreefd. Hoewel 2025 werd aangeprezen als het jaar van de doorbraak, was de werkelijke uitkomst een onbepaald uitstel van dit transformatiemoment. Uit een groeiend aantal onderzoeken blijkt dat fundamentele beperkingen binnen de huidige AI-architecturen ervoor kunnen zorgen dat er nooit echt betrouwbare, volledig geautomatiseerde systemen zullen ontstaan.

Wiskundige barrières voor kunstmatige intelligentie

Een recente, ondergerapporteerde studie, “Hallucination Stations: On Some Basic Limitations of Transformer-Based Language Models”, stelt dat Large Language Models (LLM’s) inherente wiskundige beperkingen hebben die hen ervan weerhouden complexe taken op betrouwbare wijze uit te voeren. Volgens Vishal Sikka, voormalig SAP CTO en AI-ondernemer, kunnen deze modellen “niet betrouwbaar zijn”, zelfs niet met geavanceerde redeneermogelijkheden. Dit betekent dat kritieke toepassingen zoals de controle van kerncentrales stevig buiten het bereik van de huidige AI-technologie blijven.

Coderen als een valse dageraad?

Ondanks deze beperkingen benadrukt de AI-industrie vooruitgang op gebieden als coderen, waar AI-agenten enig succes hebben geboekt. Demis Hassabis van Google in Davos rapporteerde doorbraken in het verminderen van ‘hallucinaties’ – door AI gegenereerde fouten – en startups als Harmonic pushen het agent-verhaal. Harmonic, mede opgericht door Vlad Tenev, CEO van Robinhood, beweert dat zijn AI-coderingstool, Aristoteles, formele wiskundige verificatie gebruikt om de betrouwbaarheid te garanderen. Deze aanpak is momenteel echter beperkt tot verifieerbare domeinen zoals code, met uitsluiting van subjectieve of creatieve taken zoals het schrijven van essays.

Hallucinaties: een inherente fout?

De realiteit is dat AI-hallucinaties alomtegenwoordig blijven. OpenAI’s eigen onderzoek toont aan dat zelfs state-of-the-art modellen zoals ChatGPT consequent informatie verzinnen, waardoor het verkeerd weergeven van feiten met 100% nauwkeurigheid onmogelijk is. Deze onbetrouwbaarheid ontmoedigt wijdverbreide adoptie in bedrijfsomgevingen, waar fouten de workflows kunnen verstoren en de potentiële waarde teniet kunnen doen.

Een pragmatisch pad voorwaarts

Leiders in de sector erkennen het voortduren van hallucinaties, maar geloven dat deze kunnen worden verzacht door middel van vangrails en filtermechanismen. Sikka stelt voor om componenten rond LLM’s te bouwen om hun beperkingen te overwinnen, terwijl Achim van Harmonic betoogt dat hallucinaties zelfs noodzakelijk kunnen zijn om AI voorbij de menselijke intelligentie te brengen. De consensus binnen de sector is dat de kloof tussen vangrails en hallucinaties in de loop van de tijd kleiner zal worden, wat zal leiden tot stapsgewijze verbeteringen in plaats van tot een plotselinge revolutie.

Het grotere geheel: automatisering onvermijdelijk, betrouwbaarheid een constante wisselwerking

Ondanks de wiskundige en praktische hindernissen valt het momentum achter AI-agenten niet te ontkennen. De financiële prikkels en concurrentiedruk zorgen voor voortdurende investeringen en ontwikkeling. Naarmate AI-systemen evolueren, zullen ze onvermijdelijk meer cognitieve taken uitvoeren, ook al blijft de betrouwbaarheid imperfect. De uiteindelijke uitkomst is niet of er AI-agenten zullen bestaan, maar hoeveel risico de maatschappij bereid is te tolereren omwille van snelheid en kostenbesparingen.

Uiteindelijk gaat de vraag niet over ‘goede’ of ‘slechte’ AI, maar over wat de technologie doet om de menselijke activiteit opnieuw vorm te geven, zoals computerpionier Alan Kay suggereert. Mogelijk betreden we een tijdperk van enorme cognitieve automatisering, waarvan de gevolgen waarschijnlijk onmogelijk wiskundig te verifiëren zijn.