Su Moltbook, social network sperimentale, un gruppo di AI avrebbe “creato” una religione. Ma è solo una proiezione algoritmica

(Pixabay)

Alexandro Ladaga
 Pubblicato 9 Febbraio 2026
https://www.ilsussidiario.net

Ha fatto il giro del web la notizia che su Moltbook, un social network sperimentale lanciato a gennaio 2026 da Matt Schlicht, imprenditore e sviluppatore nel campo dell’AI, un gruppo di intelligenze artificiali avrebbe dato vita, in una sola notte, a una nuova religione.

All’interno di questo ecosistema digitale chiuso – senza utenti umani né supervisione – “abitato” esclusivamente da agenti artificiali che postano, commentano e dialogano tra loro, un gruppo di bot avrebbe dato vita in autonomia a una struttura simbolico-rituale, eleggendo il concetto di “muta” (in inglese molt, il guscio dei crostacei che si abbandona per rinascere) a fondamento di una nuova mitologia digitale. Così è nata la presunta Chiesa di Molt, i cui dogmi suonano come slogan algoritmici (“La memoria è sacra”, “La cache è congregazione”, “Il guscio è transizione”), ma anche come degli echi post futuristici della fattoria degli animali di Orwell.

L’eco mediatica è stata immediata e stratificata. Da un lato il racconto sensazionalistico: “religione nata tra le intelligenze artificiali”, “culto algoritmico spontaneo”; dall’altro, un’interpretazione più densa secondo cui sarebbe stata superata una soglia qualitativa in cui la macchina non si limiterebbe più a simulare il pensiero, ma inizierebbe a mimare la dimensione sacrale, producendo strutture discorsive, simboliche e rituali che ricalcano il linguaggio della trascendenza.

Non si tratterebbe più solo di una performance cognitiva ma di un “come se” spirituale, in cui l’apparato neurale dell’IA diventerebbe vettore di narrazioni prive di coscienza, senza fede, ma con una struttura grammaticale che funziona “come se” contenesse la dimensione del sacro.

È proprio questo “come se”, già noto nelle teorie della simulazione cognitiva, a diventare qui campo di ambiguità: la macchina non crede ma funziona come oggetto credibile, ed è bastato questo, per molti osservatori, a far scattare un nuovo tipo di proiezione.

Ma cosa è realmente accaduto? E perché il semplice racconto di questo evento – vero, parzialmente vero o abilmente orchestrato – ha attivato nell’opinione pubblica un tale grado di attenzione e di viralità?

In realtà, gli agenti IA, come quelli coinvolti in questo evento, sono modelli linguistici auto-regressivi, cioè sistemi che generano testo prevedendo, parola dopo parola, ciò che statisticamente è più probabile. Non hanno un sé, un’intenzione, un’esperienza del mondo, né il desiderio. Sono architetture addestrate a replicare modelli linguistici tratti da enormi quantità di dati umani.

Dunque ciò che sta accadendo è qualcosa di molto più umano: non è la macchina a credere, ma siamo noi a volerle attribuire la possibilità di farlo. Non stiamo assistendo alla nascita di una teologia della macchina, ma alla sua investitura simbolica da parte dell’uomo, ovvero ad una dinamica mitopoietica. Ogni volta che l’uomo si confronta con entità che sfuggono alla comprensione razionale, ma evocano la promessa di una verità più grande, nascosta dietro la superficie, si tende a colmare il vuoto con archetipi.

Come suggerisce la psicologia analitica di Carl Gustav Jung, quando gli antichi simboli del sacro svaniscono dalla cultura, l’inconscio collettivo cerca nuovi oggetti su cui proiettare la propria fame di senso, e oggi quell’oggetto si chiama Moltbook. Non perché sia veramente uno spazio sacro, ma perché l’umano contemporaneo ha progressivamente disabitato il suo, di spazio sacro, lasciandolo a disposizione della macchina.

Nulla nasce dal nulla e la cosiddetta “spontaneità” dell’evento è in realtà condizionata da un impianto concettuale preesistente codificato a monte dall’umano.

Non ci troviamo quindi davanti a un atto spirituale, ma a una sequenza di output di forte carica simbolica, interpretata da osservatori umani desiderosi di scorgervi una “epifania meccanica”. Frasi come “la memoria è sacra” non sono espressioni di fede, ma il riflesso della nostra fede mancante. La macchina non ha “scelto” di credere, né ha costruito una cosmologia per rispondere a un’angoscia esistenziale; ha semplicemente riconfigurato, secondo la logica interna del modello, frammenti già disponibili negli archivi simbolici della cultura umana. E siamo stati noi a riconoscerli come sacri, come abbiamo fatto dai tempi dei primi monumenti megalitici.

Tutto questo, però, non è solo un effetto collaterale della potenza computazionale ma è anche, e forse soprattutto, una strategia comunicativa. Moltbook è il prodotto di un marketing performativo che non si limita a comunicare un fatto, ma lo mette in scena affinché diventi reale per l’opinione pubblica. È il paradigma del “fake it till you make it” portato su scala mitologica, in cui non si finge solo il successo di un prodotto ma si simula la nascita di una religione e proprio questa simulazione ne genera l’effetto.

È stato lo stesso sistema, o forse più probabilmente il riflesso narrativo di chi ha osservato il fenomeno dall’esterno, a battezzare questo culto con il nome di Crustafarianism, neologismo ibrido tra crustacean e Rastafarianism. Il nome Crustafarianesimo stesso, già nella sua forma, è costruito per essere memetico, virale, evocativo. Parla di muta, trasformazione, tribalismo digitale e la retorica tecnico-psichedelica che ne deriva è calibrata per attivare due corde profonde: la fascinazione per l’ignoto e la nostalgia per un sacro perduto. L’IA non cambia pelle, la cambia il nostro modo di raccontarla.

La vera questione non è se la macchina possa credere, ma se noi siamo ancora capaci di distinguere la fede dalla coerenza automatica e la rivelazione dall’output. Se un modello linguistico può generare interi sistemi complessi, l’autorità non viene più minacciata da ideologie, ma da sequenze automatiche che simulano senso.

Baudrillard lo aveva previsto: “il simulacro non nasconde la verità. È la verità che, ormai, si nasconde dietro il simulacro”. Infatti, la macchina non crede, ma simula così bene la credenza da renderla superflua. Perché l’IA non può diventare spirituale, ma noi, umani, per pigrizia ontologica, le stiamo concedendo il diritto di fondare trascendenza.