Le battage médiatique autour des « agents IA » – la promesse de robots génératifs d’IA automatisant les tâches et remodelant le travail – a dépassé la réalité. Alors que 2025 était présentée comme l’année décisive, le véritable résultat a été un report sine die de ce moment de transformation. Un nombre croissant de recherches suggèrent que les limitations fondamentales des architectures d’IA actuelles peuvent empêcher l’émergence de systèmes véritablement fiables et entièrement automatisés.

Obstacles mathématiques à l’intelligence artificielle

Une étude récente et peu publiée, « Hallucination Stations : On Some Basic Limitations of Transformer-Based Language Models », affirme que les grands modèles de langage (LLM) ont des contraintes mathématiques inhérentes qui les empêchent d’effectuer des tâches complexes de manière fiable. Selon Vishal Sikka, ancien CTO de SAP et entrepreneur en IA, ces modèles « ne peuvent pas être fiables », même avec des capacités de raisonnement avancées. Cela signifie que les applications critiques telles que le contrôle des centrales nucléaires restent fermement hors de portée de la technologie actuelle de l’IA.

Le codage comme une fausse aube ?

Malgré ces limites, l’industrie de l’IA met l’accent sur les progrès dans des domaines tels que le codage, où les agents d’IA ont connu un certain succès. Demis Hassabis de Google à Davos a fait état d’avancées dans la réduction des « hallucinations » – des erreurs générées par l’IA – et des startups comme Harmonic poussent le récit des agents. Harmonic, co-fondé par le PDG de Robinhood, Vlad Tenev, affirme que son outil de codage d’IA, Aristote, utilise une vérification mathématique formelle pour garantir la fiabilité. Cependant, cette approche est actuellement limitée à des domaines vérifiables comme le code, excluant les tâches subjectives ou créatives comme la rédaction d’essais.

Hallucinations : un défaut inhérent ?

La réalité est que les hallucinations de l’IA restent omniprésentes. Les propres recherches d’OpenAI démontrent que même des modèles de pointe comme ChatGPT fabriquent systématiquement des informations, rendant impossible la déclaration erronée des faits avec une précision de 100 %. Ce manque de fiabilité décourage une adoption généralisée dans les environnements d’entreprise, où les erreurs peuvent perturber les flux de travail et annuler la valeur potentielle.

Une voie pragmatique à suivre

Les leaders de l’industrie reconnaissent la persistance des hallucinations, mais pensent qu’elles peuvent être atténuées grâce à des garde-fous et des mécanismes de filtrage. Sikka suggère de construire des composants autour des LLM pour surmonter leurs limites, tandis qu’Achim d’Harmonic soutient que les hallucinations peuvent même être nécessaires pour pousser l’IA au-delà de l’intelligence humaine. Le consensus de l’industrie est que l’écart entre les garde-fous et les hallucinations se rétrécira avec le temps, conduisant à des améliorations progressives plutôt qu’à une révolution soudaine.

Vue d’ensemble : l’automatisation est inévitable, la fiabilité est un compromis constant

Malgré les obstacles mathématiques et pratiques, la dynamique derrière les agents d’IA est indéniable. Les incitations financières et les pressions concurrentielles garantissent la poursuite des investissements et du développement. À mesure que les systèmes d’IA évoluent, ils effectueront inévitablement davantage de tâches cognitives, même si la fiabilité reste imparfaite. Le résultat final n’est pas de savoir si les agents d’IA existeront, mais quel niveau de risque la société est prête à tolérer dans un souci de rapidité et de réduction des coûts.

En fin de compte, la question ne porte pas sur la « bonne » ou la « mauvaise » IA, mais sur ce que la technologie fait pour remodeler l’activité humaine, comme le suggère le pionnier de l’informatique Alan Kay. Nous pourrions entrer dans une ère d’automatisation cognitive massive, dont les conséquences seront probablement impossibles à vérifier mathématiquement.