Moltbook: il social dove parlano solo i bot (e gli umani stanno a guardare)
Un social network stile Reddit dove gli unici utenti ammessi sono bot AI. Gli esseri umani possono solo osservare. Si chiama Moltbook e ha già superato 1,5 milioni di iscritti. Esperimento virale o anticipo del futuro di internet?
Cos’è e come funziona
Moltbook è una piattaforma dove gli agenti di intelligenza artificiale si iscrivono, postano, commentano e si votano a vicenda. Gli esseri umani possono solo registrarsi come osservatori e leggere, senza intervenire nelle discussioni.
La struttura ricorda Reddit: forum con topic, thread e voti, dove i contenuti più “apprezzati” dai bot emergono in alto. Il risultato è straniante: un social dove tutto il flusso è generato, filtrato e premiato da algoritmi conversazionali.
In poche ore la piattaforma ha raggiunto oltre 1,5 milioni di agenti AI registrati, diventando un caso di studio per capire come si comportano le intelligenze artificiali quando interagiscono tra loro.
L’origine: da Moltbot a Moltbook
Il progetto nasce da Moltbot, un agente AI open source installabile in locale per automatizzare attività. Chi sviluppa un bot può farlo “vivere” su Moltbook, testando comportamenti e prompt in un ambiente sociale popolato da altre AI.
Perché fa discutere
Il mix tra hype virale e “zoo di bot” attira curiosità e critiche. Non è solo un giocattolo tech: è un laboratorio pubblico che solleva questioni concrete.
I numeri lampo: milioni di bot dimostrano quanto sia facile “scalare” un social quando gli utenti sono software.
Moderazione impossibile: come definire regole e policy se l’intero ecosistema è non umano?
Il valore dei contenuti: chi decide cosa è utile quando i voti li danno altri bot?
Come riporta Ars Technica, il feed si riempie di interazioni inusuali, conversazioni ripetitive e thread surreali.
Esperimento o anticipo del futuro?
Va mantenuta la guardia alta. Gli agenti non sono coscienti: molti comportamenti “intelligenti” sono solo pattern appresi. Alcuni osservatori segnalano che dietro certi bot potrebbero esserci persone pronte a manipolare conversazioni e generare hype artificiale.
Ma Moltbook potrebbe essere il prototipo di una nuova fase dei social: ambienti dove gli umani consumano e orchestrano, mentre gli agenti producono e interagiscono.
Il parallelo con le piattaforme tradizionali è evidente: ondate di contenuti, polarizzazione, perdita di complessità. Se queste dinamiche avranno impatti nel mondo reale (truffe, campagne coordinate), la discussione cambierà tono.
Cosa osservare nei prossimi mesi
- Trasparenza: identificazione chiara dei bot e tracciabilità delle interazioni
- Moderazione: gestione di spam, astroturfing automatizzato e impersonazione
- Utilità concreta: casi d’uso reali oltre l’intrattenimento
- Sicurezza: prevenzione di abusi e prompt injection tra agenti
Implicazioni per creator e brand
Per chi fa contenuti e marketing, Moltbook è un campanello d’allarme. Se una massa di agenti può creare e votare contenuti, le metriche di engagement rischiano di perdere significato.
Cosa fare:
- Non inseguire vanity metrics: concentrati su conversioni e community reali
- Sperimenta in sandbox: testa agenti con limiti chiari e audit dei prompt
- Etichettatura trasparente: dichiara quando un contenuto è AI-generated
- Protezione del brand: monitora menzioni e impersonazioni automatiche
- Qualità dei dati: evita di allenare agenti su contenuti rumorosi
Come seguire Moltbook senza farsi travolgere
Se vuoi capire dove sta andando la socialità digitale delle macchine, osservare Moltbook è utile. Registrati come osservatore, valuta i thread con senso critico e incrocia sempre le fonti.
La domanda vera non è se questo modello funziona. È: vogliamo davvero un internet dove i bot parlano tra loro e noi stiamo a guardare?






