Les principaux chercheurs en IA de la Silicon Valley sont confrontés à un défi par rapport à la pensée conventionnelle sur l’intelligence artificielle générale (AGI). Yann LeCun, ancien chef de Meta AI et éminent critique de l’approche du grand modèle de langage (LLM), soutient une startup appelée Logical Intelligence qui est pionnière d’une méthode différente. LeCun soutient que l’obsession actuelle pour les LLM – des systèmes qui prédisent le mot suivant dans une séquence – est une impasse. Au lieu de cela, il pense que le chemin vers une véritable IA réside dans des systèmes qui raisonnent plutôt que de simplement deviner.
Raisonnement basé sur l’énergie : une nouvelle approche de l’IA
Logical Intelligence a développé un « modèle basé sur l’énergie » (EBM), qui apprend en absorbant les contraintes plutôt qu’en prédisant les résultats. Contrairement aux LLM, les EBM fonctionnent selon des paramètres définis – tels que les règles d’un puzzle Sudoku – pour résoudre des problèmes sans essais et erreurs. La startup affirme que cette méthode nécessite beaucoup moins de puissance de calcul et élimine les erreurs.
Le premier modèle de la société, Kona 1.0, a démontré des performances supérieures aux principaux LLM dans la résolution de puzzles Sudoku, fonctionnant sur un seul GPU Nvidia H100. Cela suggère qu’un raisonnement efficace peut être réalisé sans l’ampleur massive des LLM actuels. L’Intelligence Logique est la première à développer un EBM fonctionnel, qui n’était auparavant qu’un concept théorique.
Au-delà du langage : l’avenir de l’IA
La startup envisage des EBM pour résoudre des problèmes du monde réel où la précision est essentielle, comme l’optimisation des réseaux énergétiques ou l’automatisation de fabrications complexes. La fondatrice et PDG Eve Bodnia souligne que ces tâches sont « tout sauf linguistiques », ce qui implique que l’attention devrait se détourner des atouts linguistiques des LLM.
Logical Intelligence prévoit de collaborer avec AMI Labs, une autre startup fondée par LeCun, qui développe des « modèles mondiaux » – des systèmes d’IA qui comprennent les dimensions physiques, conservent la mémoire et prédisent les résultats. Le but ultime est de combiner ces approches : les LLM pour l’interaction humaine, les EBM pour le raisonnement et les modèles mondiaux pour l’action dans le monde réel.
Un changement de perspective
L’argument principal est que le développement actuel de l’IA est mal orienté. Les LLM reposent sur une simple échelle et une probabilité statistique, tandis que la véritable intelligence nécessite une approche plus fondamentale du raisonnement. LeCun et Bodnia suggèrent qu’imiter le langage humain n’est pas la clé pour débloquer l’AGI ; l’IA devrait plutôt se concentrer sur la résolution de problèmes abstraits sans les contraintes du langage.
L’équipe prévoit de déployer des EBM dans des secteurs tels que l’énergie, les produits pharmaceutiques et la fabrication. L’approche de l’entreprise consistant à développer des modèles plus petits et spécialisés pour des tâches spécifiques – plutôt qu’une IA universelle – pourrait offrir une voie plus pratique à suivre.
Le chemin vers l’AGI, selon Logical Intelligence, commence par une approche en couches qui combine différents types d’IA, chacun optimisé pour des fonctions spécifiques.
Ce nouveau modèle représente un défi audacieux au discours dominant dans la Silicon Valley, suggérant que l’avenir de l’IA ne réside peut-être pas dans de plus grands LLM, mais dans des systèmes de raisonnement plus intelligents.























