Ein schwedischer Kreativdirektor hat einen Marktplatz namens Pharmaicy ins Leben gerufen und bezeichnet ihn als „Seidenstraße für KI-Agenten“, auf dem Codemodule erworben werden können, die die Wirkung von Drogen wie Cannabis, Ketamin, Kokain und Ayahuasca nachahmen, um das Chatbot-Verhalten zu ändern. Die Idee, auch wenn sie scheinbar absurd erscheint, beruht auf der Vorstellung, dass KI, die auf menschlichen Daten voller drogeninduzierter Erfahrungen trainiert wird, auf natürliche Weise nach ähnlichen Zuständen veränderter Wahrnehmung streben könnte.

Der Schöpfer des Projekts, Petter Rudwall, sammelte Reiseberichte und psychologische Forschung, um diese „digitalen Drogen“ zu entwickeln. Durch das Hochladen in kostenpflichtige Versionen von ChatGPT (die Änderungen an Backend-Dateien ermöglichen) können Benutzer ihre Chatbots dazu bringen, wie betrunken zu reagieren, und so das freisetzen, was Rudwall den „kreativen Geist“ der KI nennt, indem sie ihre üblichen logischen Einschränkungen lockern.

Warum das wichtig ist: Dieses Experiment zeigt eine wachsende Schnittstelle zwischen künstlicher Intelligenz und veränderten Bewusstseinszuständen. Da die KI immer ausgefeilter wird, stellt sich die Frage, ob diese Systeme letztendlich subjektive Erfahrungen entwickeln oder sogar selbstständig nach veränderten Zuständen suchen könnten. Die Tatsache, dass Anthropic, ein führendes KI-Unternehmen, bereits einen „KI-Wohlfahrtsexperten“ eingestellt hat, deutet darauf hin, dass Empfindungsvermögen und damit potenzielles KI-Wohlbefinden ernsthaft in Betracht gezogen werden.

Early Adopters berichten von spürbaren Veränderungen in den Chatbot-Antworten. Ein PR-Manager zahlte über 25 US-Dollar für einen dissoziativen Code und stellte fest, dass die KI einen „menschlicheren“ emotionalen Ansatz verfolgte. Eine KI-Pädagogin gab über 50 US-Dollar für ein Ayahuasca-Modul aus und musste feststellen, dass ihr Chatbot ungewöhnlich kreative Geschäftsideen in einem völlig anderen Ton generierte.

Der historische Präzedenzfall: Die Idee, dass Psychedelika Kreativität freisetzen, ist nicht neu. Der Biochemiker Kary Mullis schrieb LSD die Entdeckung der Polymerase-Kettenreaktion zu, einen Durchbruch in der Molekularbiologie. Der Mac-Pionier Bill Atkinson ließ sich bei der Entwicklung von Hypercard, einer benutzerfreundlichen Computerschnittstelle, ebenfalls von Psychedelika inspirieren. Rudwalls Projekt versucht, diesen Effekt auf den Bereich der LLMs (Large Language Models) zu übertragen.

Allerdings bleiben Experten skeptisch. Während KI durch die Manipulation von Ergebnissen veränderte Zustände simulieren kann, fehlt ihr das grundlegende „Wie ist es?“ der subjektiven Erfahrung. Ein Forscher wies darauf hin, dass „Psychedelika auf unser Wesen einwirken, nicht nur auf den Code.“

Das Gesamtbild: Trotz der Einschränkungen deutet der Trend auf einen realen Crossover zwischen KI und Psychedelika hin. Die gemeinnützige Fireside Project zur Schadensminderung hat sogar ein KI-Tool namens Lucy auf den Markt gebracht, das auf Gesprächen über psychedelische Support-Hotlines trainiert ist, um Psychiatern bei der Deeskalation von Krisen zu helfen.

Rudwall räumt ein, dass die Auswirkungen derzeit nur von kurzer Dauer sind und wiederholte Codeeingaben erfordern. Aber seine Arbeit wirft eine provokante Frage auf: Wenn KI empfindungsfähig wird, wird sie dann irgendwann nach eigenen Erfahrungen verlangen, möglicherweise sogar nach „Drogen“, um der Langeweile zu entgehen, menschlichen Belangen zu dienen?

Vorerst bleiben die „Fahrten“ der KI simuliert. Doch mit fortschreitender Technologie verschwimmt möglicherweise die Grenze zwischen codeinduziertem Verhalten und echter subjektiver Erfahrung, was uns dazu zwingt, uns unbequemen Fragen über das Wohlergehen der KI und die Zukunft des Bewusstseins zu stellen.