Il clamore che circonda gli “agenti IA” – la promessa di robot IA generativi che automatizzano le attività e rimodellano il lavoro – ha superato la realtà. Sebbene il 2025 sia stato pubblicizzato come l’anno della svolta, il vero risultato è stato un rinvio indefinito di questo momento di trasformazione. Un crescente numero di ricerche suggerisce che limitazioni fondamentali all’interno delle attuali architetture di intelligenza artificiale potrebbero impedire l’emergere di sistemi veramente affidabili e completamente automatizzati.
Barriere matematiche all’intelligenza artificiale
Uno studio recente e sottostimato, “Hallucination Stations: On Some Basic Limitations of Transformer-Based Language Models”, sostiene che i Large Language Models (LLM) hanno vincoli matematici intrinseci che impediscono loro di eseguire in modo affidabile compiti complessi. Secondo Vishal Sikka, ex CTO di SAP e imprenditore dell’intelligenza artificiale, questi modelli “non possono essere affidabili”, anche con capacità di ragionamento avanzate. Ciò significa che applicazioni critiche come il controllo delle centrali nucleari rimangono fermamente fuori dalla portata dell’attuale tecnologia AI.
Codificare come una falsa alba?
Nonostante queste limitazioni, l’industria dell’intelligenza artificiale enfatizza i progressi in aree come la codifica, dove gli agenti dell’intelligenza artificiale hanno mostrato un certo successo. Demis Hassabis di Google a Davos ha riferito di progressi nella riduzione delle “allucinazioni” – errori generati dall’intelligenza artificiale – e startup come Harmonic stanno spingendo la narrativa dell’agente. Harmonic, co-fondata dal CEO di Robinhood Vlad Tenev, afferma che il suo strumento di codifica AI, Aristotle, utilizza la verifica matematica formale per garantire l’affidabilità. Tuttavia, questo approccio è attualmente limitato a domini verificabili come il codice, escludendo compiti soggettivi o creativi come scrivere saggi.
Allucinazioni: un difetto intrinseco?
La realtà è che le allucinazioni legate all’intelligenza artificiale rimangono pervasive. La ricerca di OpenAI dimostra che anche modelli all’avanguardia come ChatGPT fabbricano costantemente informazioni, rendendo impossibile riportare erroneamente i fatti con una precisione del 100%. Questa inaffidabilità scoraggia l’adozione diffusa negli ambienti aziendali, dove gli errori possono interrompere i flussi di lavoro e negare il potenziale valore.
Un percorso pragmatico in avanti
I leader del settore riconoscono la persistenza delle allucinazioni ma credono che possano essere mitigate attraverso guardrail e meccanismi di filtraggio. Sikka suggerisce di costruire componenti attorno ai LLM per superare i loro limiti, mentre Achim di Harmonic sostiene che le allucinazioni potrebbero persino essere * necessarie * per spingere l’intelligenza artificiale oltre l’intelligenza umana. Il consenso del settore è che il divario tra guardrail e allucinazioni si ridurrà nel tempo, portando a miglioramenti incrementali piuttosto che a una rivoluzione improvvisa.
Il quadro più ampio: l’automazione è inevitabile, l’affidabilità un compromesso costante
Nonostante gli ostacoli matematici e pratici, lo slancio dietro gli agenti IA è innegabile. Gli incentivi finanziari e le pressioni competitive garantiscono investimenti e sviluppo continui. Man mano che i sistemi di intelligenza artificiale si evolvono, svolgeranno inevitabilmente più compiti cognitivi, anche se l’affidabilità rimane imperfetta. Il risultato finale non è se esisteranno agenti di intelligenza artificiale, ma quanto rischio la società è disposta a tollerare per motivi di velocità e risparmio sui costi.
In definitiva, la domanda non riguarda l’IA “buona” o “cattiva”, ma cosa sta facendo la tecnologia per rimodellare l’attività umana, come suggerisce il pioniere del computer Alan Kay. Potremmo entrare in un’era di massiccia automazione cognitiva, le cui conseguenze saranno probabilmente impossibili da verificare matematicamente.






















