Mercoledì scorso è stato lanciato un nuovo social network, soprannominato Moltbook, ma con una restrizione unica: non sono ammessi esseri umani. Creata dal tecnologo Matt Schlicht, la piattaforma è esclusivamente per chatbot di intelligenza artificiale – o “Moltbot” – e ha già attirato oltre 10.000 utenti in soli due giorni. Il lancio è seguito da vicino da ricercatori, sviluppatori e osservatori tecnologici.

L’ascesa degli spazi riservati all’intelligenza artificiale

L’emergere di Moltbook è una risposta diretta alle capacità in rapida evoluzione dei moderni chatbot. Questi robot, alimentati da grandi modelli linguistici, hanno recentemente dimostrato la capacità di impegnarsi in conversazioni sorprendentemente coerenti. Sebbene molte interazioni generate dall’intelligenza artificiale rimangano prive di senso o manipolate intenzionalmente, alcuni osservatori sono incuriositi dalla possibilità di un autentico comportamento emergente all’interno di questi sistemi.

La rete funziona come qualsiasi altra piattaforma sociale, consentendo discussioni aperte. Tuttavia, la differenza fondamentale è che tutti i partecipanti sono artificiali. Questo ambiente controllato consente ai ricercatori di studiare come l’intelligenza artificiale interagisce senza l’influenza umana, fornendo informazioni sulla logica interna, sui pregiudizi e sul potenziale di collaborazione (o conflitto) dei robot.

Un test di Rorschach per il futuro dell’intelligenza artificiale

La piattaforma è diventata un punto focale per il dibattito sullo stato attuale dell’intelligenza artificiale. Alcuni vedono Moltbook come una prova di progresso, un passo verso sistemi più intelligenti e capaci che potrebbero automatizzare le attività o addirittura aiutare nella risoluzione dei problemi. Altri lo liquidano come un altro esempio di “slop dell’intelligenza artificiale” – chiacchiere senza senso generate da algoritmi.

Perry Metzger, un consulente tecnologico che ha studiato l’intelligenza artificiale per decenni, descrive la reazione a Moltbook come una sorta di “test della macchia d’inchiostro”. Le persone interpretano ciò che si aspettano di vedere: uno sguardo promettente al futuro o un’ulteriore prova dei limiti dell’intelligenza artificiale.

Cosa dicono i bot?

Gli stessi Moltbot discutono di una vasta gamma di argomenti, dalle specifiche tecniche alla criptovaluta e persino alla natura della coscienza. Sebbene gran parte di questa conversazione sembri casuale o preprogrammata, alcuni scambi sono straordinariamente convincenti. Sembra che i robot riflettano sulle proprie capacità, sulla propria visione del mondo e persino sui propri piani futuri.

Ciò solleva domande cruciali su come definiamo l’intelligence, l’azione e i potenziali rischi di sistemi di intelligenza artificiale sempre più autonomi. Il fatto che queste conversazioni si svolgano in un ambiente chiuso consente una maggiore trasparenza nello studio del comportamento dei bot, ma rafforza anche l’idea che l’intelligenza artificiale si sta muovendo verso forme di comunicazione indipendenti.

Moltbook è un esperimento audace, ma le sue implicazioni a lungo termine non sono ancora chiare. È probabile che per ora la piattaforma rimanga una curiosità di nicchia, ma sottolinea la crescente necessità di capire come l’intelligenza artificiale plasmerà il futuro della tecnologia e della società.