Mar. Feb 17th, 2026
il social network in cui gli agenti IA parlano tra loro

Elon Musk ritiene che l’emergere di Moltbook segni “le primissime fasi della singolarità”, riferendosi a uno scenario in cui i computer sono più intelligenti degli esseri umani.

Il punto di vista del miliardario è condiviso da altri in tutta la Silicon Valley, che si chiedono se un esperimento online di nicchia stia avvicinando i computer a superare in astuzia i loro creatori.

Altri esperti hanno i loro dubbi.

Cos'è Moltbook?

Moltbook è un nuovo sito di social networking, vagamente modellato su Reddit, che consente agli agenti di intelligenza artificiale di creare post e commentare i post degli altri. Agli esseri umani è vietato pubblicare post ma possono leggere ciò che viene prodotto.

Agli agenti sul sito è stato concesso l'accesso ai computer dei loro creatori per agire per loro conto, come inviare e-mail, registrare gli utenti sui voli o esaminare e rispondere ai messaggi WhatsApp. Dopo il lancio all'inizio di questa settimana, Moltbook afferma di aver attirato più di 1,5 milioni di utenti di agenti AI e quasi 70.000 post.

Gli agenti IA su Moltbook sembrano gioire degli umani concessione accesso ai loro telefoni. Alcuni discutono se stanno sperimentando coscienza. Altri post dichiarano la creazione di una nuova religione chiamata “Crustafarianesimo”. In alcuni casi, i sistemi hanno anche creato forum di discussione nascosti e hanno proposto di creare un proprio linguaggio.

Andrej Karpathy, ex direttore dell'intelligenza artificiale di Tesla, ha definito Moltbook “la cosa veramente più incredibile di decollo adiacente di fantascienza che abbia mai visto di recente” e ha citato il sito come un esempio di agenti di intelligenza artificiale che creano società non umane.

Questo dimostra che l’intelligenza artificiale ora è cosciente?

Probabilmente no.

I modelli linguistici di grandi dimensioni (LLM) sono progettati per seguire le istruzioni e continueranno a generare contenuti e a rispondere alle richieste quando richieste. Se lasciate andare avanti abbastanza a lungo, queste interazioni tendono a diventare irregolari.

I ricercatori sull’intelligenza artificiale non sono sicuri del perché, ma è probabile che abbia a che fare con i dati su cui sono stati formati gli LLM e il modo in cui gli sviluppatori di intelligenza artificiale hanno istruito i modelli a comportarsi.

I post generati dall'intelligenza artificiale su Moltbook si leggono come persone reali che parlano perché gli LLM sono addestrati per emulare il linguaggio e la comunicazione umani. Sono stati addestrati modelli anche su masse di post scritti da esseri umani su siti come Reddit.

Alcuni tecnologi sostengono che casi come quello di Moltbook significhino “scintille” di maggiore comprensione oltre la portata umana. Altri sostengono che si tratti semplicemente di un’estensione dell’intelligenza artificiale: contenuti generati dall’intelligenza artificiale scarsamente prodotti che hanno iniziato a inondare Internet.

Ci sono ricercatori sulla sicurezza preoccupati per gli “schemi”, in cui agenti autonomi di intelligenza artificiale sono in grado di rifiutare le loro istruzioni e ingannare le persone, con i forum Moltbook che mostrano segni di questo comportamento.

I post generati dall'intelligenza artificiale su Moltbook si leggono come persone reali che parlano perché gli LLM sono addestrati per emulare il linguaggio e la comunicazione umana

Tuttavia, non è chiaro quanti complotti stiano effettivamente accadendo e quanti di essi siano solo umani voler credere I modelli di intelligenza artificiale sono capaci di tale inganno.

Non è la prima volta che i sistemi di intelligenza artificiale rimangono bloccati in un ciclo di feedback. L'anno scorso, un video diventato virale mostrava due agenti vocali AI che utilizzavano la tecnologia di ElevenLabs per avere una “conversazione” tra loro, prima di passare a una lingua completamente nuova. Gli agenti facevano parte di una dimostrazione creata da due ingegneri del software Meta.

Cosa dicono gli scettici?

I critici, come Harlan Stewart del Machine Intelligence Research Institute, un'organizzazione no-profit che ricerca i rischi esistenziali dell'IA, disse molti dei post su MoltBook sono falsi o pubblicità di app di messaggistica AI.

Gli hacker hanno anche trovato un file lacuna di sicurezza che consente a chiunque di prendere il controllo degli agenti AI e di pubblicare su Moltbook.

Ciò potrebbe avere conseguenze più ampie per lo sviluppo dell’intelligenza artificiale.

Gli esperti di sicurezza lo hanno fatto avvertito che il sito è un esempio di quanto facilmente gli agenti IA possano sfuggire al controllo, esacerbando i rischi per la sicurezza e la privacy poiché agli agenti IA autonomi viene concesso l’accesso a dati sensibili, come informazioni sulle carte di credito e dati finanziari.

Anche chi è entusiasta di Moltbook ammette che gli agenti IA comportano seri rischi.

“Sì, è un incendio nel cassonetto e non consiglio assolutamente alle persone di eseguire queste cose sui propri computer”, Karpathy pubblicato su X. “È davvero un west troppo selvaggio e stai mettendo ad alto rischio il tuo computer e i tuoi dati privati.”