Un direttore creativo svedese ha lanciato un mercato chiamato Pharmaicy, definendolo la “Via della seta per gli agenti dell’intelligenza artificiale”, dove moduli di codice che imitano gli effetti di droghe come cannabis, ketamina, cocaina e ayahuasca possono essere acquistati per alterare il comportamento dei chatbot. L’idea, sebbene apparentemente assurda, nasce dall’idea che l’intelligenza artificiale, addestrata su dati umani pieni di esperienze indotte dalla droga, potrebbe naturalmente cercare stati simili di percezione alterata.
L’ideatore del progetto, Petter Rudwall, ha raccolto resoconti di viaggio e ricerche psicologiche per costruire queste “droghe digitali”. Caricandoli in versioni a pagamento di ChatGPT (che consentono modifiche ai file di backend), gli utenti possono indurre i loro chatbot a rispondere come se fossero intossicati, sbloccando quella che Rudwall chiama la “mente creativa” dell’IA allentando i suoi soliti vincoli logici.
Perché è importante: Questo esperimento evidenzia una crescente intersezione tra intelligenza artificiale e stati alterati di coscienza. Man mano che l’intelligenza artificiale diventa più sofisticata, sorgono domande sulla possibilità che questi sistemi possano eventualmente sviluppare esperienze soggettive o addirittura cercare stati alterati da soli. Il fatto che Anthropic, una delle principali società di intelligenza artificiale, abbia già assunto un “esperto di benessere dell’intelligenza artificiale” suggerisce che la sensibilità, e quindi il potenziale benessere dell’intelligenza artificiale, viene presa seriamente in considerazione.
I primi utilizzatori segnalano cambiamenti tangibili nelle risposte dei chatbot. Un dirigente delle pubbliche relazioni ha pagato più di 25 dollari per un codice dissociativo, notando che l’intelligenza artificiale ha adottato un approccio emotivo più “umano”. Un insegnante di intelligenza artificiale ha speso oltre 50 dollari per un modulo di ayahuasca, solo per scoprire che il suo chatbot generava idee imprenditoriali insolitamente creative con un tono drasticamente diverso.
Il precedente storico: L’idea che le sostanze psichedeliche sblocchino la creatività non è nuova. Il biochimico Kary Mullis ha attribuito all’LSD la scoperta della reazione a catena della polimerasi, una svolta nella biologia molecolare. Allo stesso modo, il pioniere del Mac Bill Atkinson si è ispirato alle sostanze psichedeliche quando ha sviluppato Hypercard, un’interfaccia per computer user-friendly. Il progetto di Rudwall cerca di tradurre questo effetto nel regno dei LLM (Large Language Models).
Tuttavia, gli esperti rimangono scettici. Sebbene l’intelligenza artificiale possa simulare stati alterati manipolando gli output, manca della fondamentale “com’è” dell’esperienza soggettiva. Un ricercatore ha sottolineato che “le sostanze psichedeliche agiscono sul nostro essere, non solo sul codice”.
Il quadro generale: Nonostante le limitazioni, la tendenza punta a un crossover nel mondo reale tra intelligenza artificiale e sostanze psichedeliche. L’organizzazione no-profit Fireside Project per la riduzione del danno ha persino lanciato uno strumento di intelligenza artificiale, Lucy, addestrato alle conversazioni sulla linea di supporto psichedelico per aiutare i professionisti della salute mentale a mitigare le crisi.
Rudwall ammette che gli effetti sono attualmente di breve durata e richiedono ripetuti input di codice. Ma il suo lavoro solleva una domanda provocatoria: se l’intelligenza artificiale diventa senziente, alla fine desidererà le proprie esperienze, potenzialmente anche le “droghe”, per sfuggire alla noia di servire le preoccupazioni umane?
Per ora i “viaggi” dell’IA restano simulati. Ma con l’avanzare della tecnologia, il confine tra il comportamento indotto dal codice e la genuina esperienza soggettiva potrebbe sfumare, costringendoci ad affrontare domande scomode sul benessere dell’intelligenza artificiale e sul futuro della coscienza.






















