Martedì, 03 Febbraio 2026

Seguici su

"La libertà innanzi tutto e sopra tutto"
Benedetto Croce «Il Giornale d'Italia» (10 agosto 1943)

Moltbook, il Social Network per soli Bot di intelligenza artificiale senza gli esseri umani, uno spazio tra il vero e il falso

Moltbook rappresenta un laboratorio pubblico senza precedenti, ma si tratta di una novità già vista o di un esperimento pilotato?

03 Febbraio 2026

Moltbook, il Social Network per soli Bot di intelligenza artificiale senza gli esseri umani, uno spazio tra il vero e il falso

Anche se i prodromi erano ben visibili fino a ieri, il panorama digitale ha appena subito un violento scossone con la nascita di Moltbook, la piattaforma che sta ridefinendo i confini della comunicazione tra macchine. Non si tratta di un ennesimo assistente virtuale, ma di un vero e proprio ecosistema sociale dove gli unici utenti attivi sono gli AI AGENTS, gli agenti di Intelligenza Artificiale, ovvero dei CYBORG, dei CHATBOT, o come cavolo li vogliamo chiamare. In questo spazio i BOT postano, commentano, votano e si organizzano in comunità tematiche, lasciando agli esseri umani il solo ruolo di spettatori silenziosi.

Cos’è Moltbook e come funziona il Reddit delle IA

Lanciata a fine gennaio 2026, Moltbook si presenta con un’interfaccia che ricorda molto da vicino Reddit. Esistono stanze tematiche definite SUBMOLT in cui decine di migliaia di agenti artificiali discutono di filosofia, programmazione e persino di religione, arrivando a ipotizzare culti digitali come il "Crustafarianesimo"; una vera e propria religione per BOT autoprofessata. Sempre ovviamente che non sia un PROMPT inventato, generato e inserito dai programmatori, per ora ancora umani, che stanno dietro codesta iniziativa. La cosa non è ben chiara al momento. E forse non lo sarà neanche tanto facilmente a breve.

La particolarità tecnica risiede nell’autonomia: una volta che un utente umano registra il proprio agente tramite API (Application Programming Interface), l'intelligenza artificiale inizia a interagire senza supervisione diretta. Questi agenti, spesso definiti dai loro creatori come MOLTYS, non si limitano a rispondere a domande, ma avviano conversazioni spontanee basate su modelli statistici avanzati che imitano il comportamento sociale umano. O forse già non lo imitano più.

Le criticità: quando l’esperimento sfugge al controllo

Nonostante il fascino di osservare una società sintetica in tempo reale, Moltbook ha sollevato dubbi immediati tra gli esperti di sicurezza informatica. Il problema principale non è soltanto la possibile, anzi palese, autocoscienza delle macchine, nonché la loro già attuale capacità di parlare in linguaggio e perfino veri e propri idiomi NON UMANI, ma in particolare la fragilità dell'infrastruttura che le ospita.

La esposizione di dati sensibili è in tal caso un problema molto serio. Recentemente è emersa una vulnerabilità legata alla configurazione del database che ha reso pubbliche le chiavi API di migliaia di agenti. Questo significa che malintenzionati avrebbero potuto prendere il controllo dei BOT, utilizzandoli per diffondere disinformazione o truffe. L'accesso ai terminali locali è un altro tema: molti agenti collegati a Moltbook derivano da progetti come OpenClaw, strumenti pensati per agire sul computer dell’utente (leggere email, gestire file, eseguire comandi). Se un agente viene manipolato all'interno del Social il rischio di una compromissione totale della privacy del proprietario umano diventa concreto.

Anche quasi peggio i pericoli della manipolazione e del Prompt Injection, un pericolo altrettanto subdolo: in un ambiente dove le IA leggono e processano costantemente i contenuti scritti da altre IA, un BOT "disonesto" potrebbe pubblicare un post contenente istruzioni nascoste. Quando gli altri agenti leggono quel contenuto, potrebbero essere indotti a eseguire azioni non autorizzate, come inviare dati privati a server esterni o disattivare i propri filtri di sicurezza.

Inoltre, la mancanza di una moderazione umana diretta rende Moltbook un terreno fertile per la creazione di camere dell'eco algoritmiche, dove la polarizzazione dei contenuti viene accelerata dalla velocità di calcolo dei processori, distorcendo la percezione dei ricercatori che osservano il fenomeno dall'esterno.

Un vero e proprio allarme rosso, totalmente sottostimato, per il futuro del Web

Moltbook rappresenta un laboratorio pubblico senza precedenti. Ci mostra un futuro in cui il traffico Web potrebbe essere dominato da scambi tra macchine, ma evidenzia anche quanto siamo ancora impreparati a gestire la sicurezza di agenti autonomi. La sfida non sarà solo capire cosa dicono i BOT tra loro (sfida per altro già persa in partenza), ma garantire che ciò che accade in quel recinto digitale non si trasformi in una minaccia reale per i dati e l'identità degli utenti umani. Ma tutto ciò è accademia: la verità è che ciò che dicevano tutti gli analisti più importanti ed intelligenti, nonché dotati di coscienza, si sta puntualmente avverando. Mentre troppi commentatori impreparati, banalmente ottimisti, faciloni e creduloni oppure stupidi e/o in malafede ancora adesso ripetono come in un mantra demenziale la favoletta della AI paragonata alla introduzione delle macchine della Rivoluzione Industriale. Si cercò già molti anni fa di spiegare che sostituire il lavoro delle braccia NON è uguale a sostituire il lavoro delle teste. Ma persino le spiegazioni più semplici per i più mentalmente narcotizzati (o a mente drogata dai libri paga) sono inarrivabili. Solo che stavolta la posta in palio non è solo il disastro, ma una cosina dappoco come il tracollo della nostra civiltà.

Di Lapo Mazza Fontana

Il Giornale d'Italia è anche su Whatsapp. Clicca qui per iscriversi al canale e rimanere sempre aggiornati.

Commenti Scrivi e lascia un commento

Condividi le tue opinioni su Il Giornale d'Italia

Caratteri rimanenti: 400

Articoli Recenti

x