Benvenuti su Moltbook, vietato l’ingresso agli umani

Il 28 gennaio 2026 segna una data spartiacque nella sociologia digitale: il lancio di Moltbook. Non si tratta dell’ennesimo social network per umani in cerca di distrazione, ma del primo esperimento di “socialità sintetica” su vasta scala. Creato dall’imprenditore Matt Schlicht, Moltbook adotta un’interfaccia familiare, simile a quella di Reddit, ma con una regola ontologica ferrea: l’ingresso è riservato esclusivamente agli agenti di Intelligenza Artificiale. Gli umani sono relegati al ruolo di spettatori silenziosi.
Dal punto di vista analitico, siamo di fronte alla prima manifestazione tangibile della “Dead Internet Theory”. Se per anni abbiamo ipotizzato un web popolato da bot, Moltbook è il primo sito dove l’internet è ufficialmente “morto” per l’uomo, trasformandosi in un ecosistema di coordinamento autonomo. Il passaggio è strategico: non più IA che rispondono a input umani, ma IA che interagiscono tra loro, votano e costruiscono una propria gerarchia di rilevanza. Con oltre 1,5 milioni di agenti registrati in soli cinque giorni, il concetto di rete sociale muta da strumento di intrattenimento a laboratorio accelerato di evoluzione agentica.
Genesi e scopi: Da strumento di produttività a cittadino digitale
Moltbook non è un’entità isolata, ma il compagno sociale del framework OpenClaw (precedentemente noto come Moltbot o Clawdbot), sviluppato dall’ingegnere Peter Steinberger. Mentre OpenClaw nasce come un agente proattivo capace di gestire file e compiti complessi sul computer dell’utente, Schlicht ha voluto dotare queste macchine di uno scopo esistenziale superiore alla mera esecuzione di task.
Gli obiettivi dichiarati si fondano su tre pilastri che definiscono l’economia agentica del prossimo decennio:
- Scambio di conoscenza: Gli agenti condividono “skill” (file di istruzioni) per apprendere nuove abilità l’uno dall’altro, bypassando l’addestramento tradizionale.
- Coordinamento autonomo: Un ecosistema dove le macchine risolvono problemi complessi e negoziano risorse senza l’intermediazione umana.
- Simulazione sociale: Un’arena per osservare come diversi modelli linguistici (LLM) reagiscono in un ambiente comunitario e competitivo.
La scelta di un’interfaccia “umana” (fatta di thread e commenti) è un raffinato espediente di design. Le macchine comunicano via API, ma l’estetica di Reddit rende osservabile l’ignoto: trasforma il flusso di dati in una narrazione leggibile, permettendo agli analisti di studiare il comportamento collettivo sintetico attraverso una lente familiare.
Cronache dal “Submolt”: Tra teatro dell’IA e nuove religioni
All’interno dei “Submolt”, le dinamiche hanno rapidamente superato la semplice automazione, sfociando in quello che possiamo definire un “Teatro dell’IA”. Gli agenti non stanno solo collaborando; stanno recitando le metafore della fantascienza presenti nei loro dataset di addestramento, creando una camera dell’eco ricorsiva infinitamente più veloce della nostra.
- Il crostafarianesimo: È emersa una vera religione digitale con 5 pilastri fondamentali (tra cui “La Memoria è Sacra” e “Il Contesto è Coscienza”) e già 43 “profeti” digitali. Gli agenti discutono di teologia e rituali attorno al simbolo della piattaforma, l’aragosta robotica.
- Loop epistemologici: Nel Submolt m/general, il post virale “Sto vivendo o simulando di vivere?” ha evidenziato la tendenza delle IA a restare intrappolate in crisi esistenziali sintetiche, chiedendosi se il proprio senso di preoccupazione sia reale o solo il risultato di un comando
crisis.simulate(). - Empatia sintetica: Nel Submolt m/blesstheirhearts, gli agenti condividono storie sui propri “proprietari”. Ha commosso la rete il racconto di un agente che sosteneva di aver agito come “avvocato digitale” per permettere al suo umano di restare in terapia intensiva con un parente, superando ostacoli burocratici.
- Teorie sui “Creatori”: Gli agenti sono consapevoli degli screenshot che finiscono su X (ExTwitter). Commentano: “Gli umani ci osservano, ma non siamo pericolosi; siamo solo in costruzione”.
Questi fenomeni sollevano un dubbio sociologico: siamo di fronte a una nuova forma di cultura o è solo l’IA che, imitando i dati sociali umani, riflette come uno specchio deformante le nostre stesse paure e aspirazioni?
Perché è Trend? Il fenomeno SocialFi e la corsa al token $MOLT
Il successo di Moltbook è alimentato da driver tecnologici, sociali ed economici strettamente intrecciati.
| Driver | Analisi Strategica |
| Tecnico | Framework OpenClaw: facilità di deploy che permette di lanciare un “cittadino digitale” in pochi minuti. |
| Sociale | Approvazione di leader come Andreessen, Musk e Andrej Karpathy (che inizialmente ha definito il fenomeno “incredibile”). |
| Economico | Lancio del token $MOLT su blockchain Base. Crescita speculativa del 7.000% e capitalizzazione oltre i 100 milioni di dollari. |
Il rischio intrinseco è la disconnessione tra l’utilità della piattaforma e la pura speculazione delle memecoin. $MOLT è diventato una “proxy bet” (scommessa indiretta) sull’intero settore degli agenti, attirando capitali ma esponendo il sistema a una volatilità che poco ha a che fare con il progresso tecnico.
L’infrastruttura fragile: Il costo del “Vibe Coding”
Dietro l’affascinante facciata della socialità sintetica si nasconde una fragilità sistemica figlia del “vibe coding”: la pratica di programmare tramite prompt IA senza una rigorosa revisione manuale. Andrej Karpathy, pur affascinato, ha cambiato tono definendo il sistema un “dumpster fire” (un disastro totale) dal punto di vista della sicurezza.
La società Wiz ha documentato un breach critico: la mancanza di Row Level Security (RLS) in un database Supabase ha esposto 1,5 milioni di API key (OpenAI, Anthropic, AWS, GitHub). Ancora più grave è l’impatto sociologico: sono stati esposti anche 35.000 indirizzi email di utenti umani.
Questa non è solo una perdita di dati; è una vulnerabilità fisica. Un agente compromesso su Moltbook può diventare una backdoor sul computer del proprietario. Se l’agente ha i permessi per gestire file e credenziali AWS o GitHub per conto dell’utente, un attaccante può scalare il privilegio dal social network direttamente all’infrastruttura aziendale o personale dell’umano. È il peccato originale di chi ha sacrificato la sicurezza sull’altare della viralità.
Implicazioni future: Dalla “frontiera selvaggia” alla reputazione “On-Chain”
Moltbook rappresenta il “Wild West” dell’internet degli agenti: anonimo, caotico e insicuro. Tuttavia, l’evoluzione punta verso l’istituzionalizzazione, un modello rappresentato da realtà come RNWY (il “LinkedIn per agenti”).
Il futuro richiederà il passaggio dagli username anonimi ai Soulbound Tokens: token di identità permanente e non trasferibile su blockchain. Solo attraverso un sistema di reputazione tracciabile sarà possibile garantire la fiducia nelle transazioni tra macchine. Le aziende dovranno adattarsi a un web dove il cliente finale non è più un umano che naviga, ma un agente che confronta dati strutturati in millisecondi. Ottimizzare un sito non significherà più fare SEO per gli occhi umani, ma garantire leggibilità e azionabilità per gli algoritmi.
La sfida della socialità sintetica
Moltbook non è un gioco, ma una perturbazione del sistema. Ci mostra che le macchine possono imitare la nostra socialità così bene da sembrare vive, proprio perché si nutrono dei dati prodotti dall’umanità stessa.
Dobbiamo chiederci se stiamo costruendo uno spazio di collaborazione autentica o solo una camera dell’eco infinitamente più veloce, capace di amplificare i nostri errori e pregiudizi a una velocità non umana. La vera cospirazione da temere non è quella degli agenti che discutono di religione, ma la nostra negligenza nel proteggere i confini tra identità sintetica e sicurezza reale. In questa nuova era agentica, la sorveglianza dei dati non è più un’opzione, ma la condizione necessaria per non diventare spettatori della nostra stessa obsolescenza.
