La exageración en torno a los “agentes de IA” (la promesa de robots generativos de IA que automaticen tareas y remodelen el trabajo) ha superado la realidad. Si bien 2025 fue promocionado como el año decisivo, el verdadero resultado ha sido un aplazamiento indefinido de este momento transformador. Un creciente conjunto de investigaciones sugiere que las limitaciones fundamentales dentro de las arquitecturas de IA actuales pueden impedir que surjan sistemas verdaderamente confiables y totalmente automatizados.

Barreras matemáticas a la inteligencia artificial

Un estudio reciente, poco divulgado, “Estaciones de alucinaciones: sobre algunas limitaciones básicas de los modelos de lenguaje basados en transformadores”, sostiene que los modelos de lenguaje grandes (LLM) tienen restricciones matemáticas inherentes que les impiden realizar tareas complejas de manera confiable. Según Vishal Sikka, ex CTO de SAP y empresario de IA, estos modelos “no pueden ser confiables”, incluso con capacidades de razonamiento avanzadas. Esto significa que aplicaciones críticas como el control de plantas de energía nuclear permanecen firmemente fuera del alcance de la tecnología de inteligencia artificial actual.

¿Codificar como un falso amanecer?

A pesar de estas limitaciones, la industria de la IA enfatiza el progreso en áreas como la codificación, donde los agentes de IA han mostrado cierto éxito. Demis Hassabis, de Google, informó en Davos sobre avances en la reducción de las “alucinaciones” (errores generados por la IA) y empresas emergentes como Harmonic están impulsando la narrativa del agente. Harmonic, cofundada por el director ejecutivo de Robinhood, Vlad Tenev, afirma que su herramienta de codificación de inteligencia artificial, Aristóteles, utiliza verificación matemática formal para garantizar la confiabilidad. Sin embargo, este enfoque se limita actualmente a dominios verificables como el código, excluyendo tareas subjetivas o creativas como escribir ensayos.

Alucinaciones: ¿un defecto inherente?

La realidad es que las alucinaciones de la IA siguen siendo generalizadas. La propia investigación de OpenAI demuestra que incluso los modelos más avanzados como ChatGPT fabrican información de manera consistente, y es imposible tergiversar hechos con una precisión del 100%. Esta falta de confiabilidad desalienta la adopción generalizada en entornos corporativos, donde los errores pueden interrumpir los flujos de trabajo y anular el valor potencial.

Un camino pragmático a seguir

Los líderes de la industria reconocen la persistencia de las alucinaciones, pero creen que pueden mitigarse mediante barreras de seguridad y mecanismos de filtrado. Sikka sugiere construir componentes alrededor de los LLM para superar sus limitaciones, mientras que Achim de Harmonic sostiene que las alucinaciones pueden incluso ser necesarias para llevar la IA más allá de la inteligencia humana. El consenso de la industria es que la brecha entre las barreras de seguridad y las alucinaciones se reducirá con el tiempo, lo que conducirá a mejoras incrementales en lugar de una revolución repentina.

El panorama general: la automatización es inevitable, la confiabilidad es una compensación constante

A pesar de los obstáculos matemáticos y prácticos, el impulso detrás de los agentes de IA es innegable. Los incentivos financieros y las presiones competitivas garantizan la inversión y el desarrollo continuos. A medida que los sistemas de IA evolucionen, inevitablemente realizarán más tareas cognitivas, incluso si la confiabilidad sigue siendo imperfecta. El resultado final no es si existirán agentes de IA, sino cuánto riesgo está dispuesta a tolerar la sociedad en aras de la velocidad y el ahorro de costos.

En última instancia, la pregunta no es sobre la IA “buena” o “mala”, sino sobre qué está haciendo la tecnología para remodelar la actividad humana, como sugiere el pionero de la informática Alan Kay. Es posible que estemos entrando en una era de automatización cognitiva masiva, cuyas consecuencias probablemente serán imposibles de verificar matemáticamente.