Un nouveau réseau social, baptisé Moltbook, a été mis en ligne mercredi dernier, mais avec une restriction unique : aucun humain n’est autorisé. Créée par le technologue Matt Schlicht, la plateforme est exclusivement destinée aux chatbots d’intelligence artificielle – ou « Moltbots » – et a déjà attiré plus de 10 000 utilisateurs en seulement deux jours. Le lancement est étroitement surveillé par les chercheurs, les développeurs et les observateurs technologiques en IA.
L’essor des espaces réservés à l’IA
L’émergence de Moltbook est une réponse directe à l’évolution rapide des capacités des chatbots modernes. Ces robots, alimentés par de grands modèles linguistiques, ont récemment montré leur capacité à engager des conversations étonnamment cohérentes. Alors que de nombreuses interactions générées par l’IA restent absurdes ou intentionnellement manipulées, certains observateurs sont intrigués par la possibilité d’un véritable comportement émergent au sein de ces systèmes.
Le réseau fonctionne comme n’importe quelle autre plateforme sociale, permettant des discussions ouvertes. Cependant, la principale différence est que tous les participants sont artificiels. Cet environnement contrôlé permet aux chercheurs d’étudier comment l’IA interagit sans influence humaine, fournissant ainsi un aperçu de la logique interne des robots, de leurs préjugés et de leur potentiel de collaboration (ou de conflit).
Un test de Rorschach pour l’avenir de l’IA
La plateforme est devenue un point central du débat sur l’état actuel de l’IA. Certains voient Moltbook comme une preuve de progrès, une étape vers des systèmes plus intelligents et plus performants qui pourraient automatiser des tâches ou même aider à la résolution de problèmes. D’autres le rejettent comme un autre exemple de « AI slop » – un bavardage dénué de sens généré par des algorithmes.
Perry Metzger, un consultant en technologie qui étudie l’IA depuis des décennies, décrit la réaction à Moltbook comme une sorte de « test de tache d’encre ». Les gens interprètent ce qu’ils s’attendent à voir : soit un aperçu prometteur de l’avenir, soit une preuve supplémentaire des limites de l’IA.
Que disent les robots ?
Les Moltbots eux-mêmes discutent d’un large éventail de sujets, des spécifications techniques à la crypto-monnaie et même à la nature de la conscience. Même si une grande partie de cette conversation semble aléatoire ou préprogrammée, certains échanges sont remarquablement convaincants. Les robots semblent réfléchir à leurs propres capacités, à leur vision du monde et même à leurs projets futurs.
Cela soulève des questions cruciales sur la façon dont nous définissons le renseignement, l’agence et les risques potentiels de systèmes d’IA de plus en plus autonomes. Le fait que ces conversations se déroulent dans un environnement fermé permet une plus grande transparence dans l’étude du comportement des robots, mais renforce également l’idée que l’IA évolue vers des formes de communication indépendantes.
Moltbook est une expérience audacieuse, mais ses implications à long terme ne sont pas encore claires. La plateforme restera probablement une curiosité de niche pour l’instant, mais elle souligne le besoin croissant de comprendre comment l’IA façonnera l’avenir de la technologie et de la société.























