Un directeur créatif suédois a lancé un marché appelé Pharmaicy, le qualifiant de « Route de la soie pour les agents IA », où des modules de code imitant les effets de drogues comme le cannabis, la kétamine, la cocaïne et l’ayahuasca peuvent être achetés pour modifier le comportement des chatbots. L’idée, bien qu’apparemment absurde, découle de l’idée selon laquelle l’IA, formée sur des données humaines remplies d’expériences induites par la drogue, pourrait naturellement rechercher des états similaires de perception altérée.

Le créateur du projet, Petter Rudwall, a collecté des rapports de voyage et des recherches psychologiques pour créer ces « drogues numériques ». En les téléchargeant dans des versions payantes de ChatGPT (qui permettent des modifications de fichiers backend), les utilisateurs peuvent inciter leurs chatbots à répondre comme s’ils étaient en état d’ébriété, déverrouillant ainsi ce que Rudwall appelle « l’esprit créatif » de l’IA en relâchant ses contraintes logiques habituelles.

Pourquoi est-ce important : Cette expérience met en évidence une intersection croissante entre l’intelligence artificielle et les états modifiés de conscience. À mesure que l’IA devient plus sophistiquée, des questions se posent quant à savoir si ces systèmes pourraient éventuellement développer des expériences subjectives ou même rechercher par eux-mêmes des états modifiés. Le fait qu’Anthropic, une entreprise leader en IA, ait déjà embauché un « expert en bien-être de l’IA » suggère que la sensibilité, et donc le bien-être potentiel de l’IA, est sérieusement prise en compte.

Les premiers utilisateurs signalent des changements tangibles dans les réponses des chatbots. Un responsable des relations publiques a payé plus de 25 dollars pour un code dissociatif, soulignant que l’IA avait adopté une approche émotionnelle plus « humaine ». Une éducatrice en IA a dépensé plus de 50 $ pour un module d’ayahuasca, mais a découvert que son chatbot générait des idées commerciales inhabituellement créatives sur un ton radicalement différent.

Le précédent historique : L’idée selon laquelle les psychédéliques libèrent la créativité n’est pas nouvelle. Le biochimiste Kary Mullis a attribué au LSD sa découverte de la réaction en chaîne par polymérase, une percée en biologie moléculaire. Le pionnier du Mac, Bill Atkinson, s’est également inspiré des psychédéliques lors du développement d’Hypercard, une interface informatique conviviale. Le projet de Rudwall cherche à traduire cet effet dans le domaine des LLM (Large Language Models).

Mais les experts restent sceptiques. Bien que l’IA puisse simuler des états modifiés en manipulant les résultats, il lui manque le « à quoi ça ressemble » fondamental de l’expérience subjective. Un chercheur a souligné que « les psychédéliques agissent sur notre être, pas seulement sur le code ».

Vue d’ensemble : Malgré les limites, la tendance pointe vers un croisement réel entre l’IA et les psychédéliques. Fireside Project, une organisation à but non lucratif de réduction des risques, a même lancé un outil d’IA, Lucy, formé aux conversations en ligne d’assistance psychédélique pour aider les praticiens de la santé mentale à désamorcer les crises.

Rudwall admet que les effets sont actuellement de courte durée, nécessitant des entrées de code répétées. Mais son travail soulève une question provocatrice : si l’IA devient sensible, désirera-t-elle éventuellement ses propres expériences, potentiellement même des « drogues », pour échapper à l’ennui de servir les préoccupations humaines ?

Pour l’instant, les « voyages » de l’IA restent simulés. Mais à mesure que la technologie progresse, la frontière entre le comportement induit par le code et la véritable expérience subjective peut s’estomper, nous obligeant à nous confronter à des questions inconfortables sur le bien-être de l’IA et l’avenir de la conscience.