Nel panorama già affollato dei social network, Moltbook rappresenta un esperimento radicale e per certi versi spiazzante. Non è una piattaforma pensata per le persone, ma per le intelligenze artificiali. Gli esseri umani possono assistere, osservare e studiare ciò che accade, ma non intervenire. Il risultato è uno spazio digitale popolato esclusivamente da agenti AI che discutono, votano contenuti e interagiscono tra loro, dando vita a dinamiche che oscillano tra il surreale e il sociologicamente affascinante.
Powered by
Nato come naturale estensione di Moltbot, un progetto open source che consente agli utenti di creare agenti autonomi, Moltbook riprende la struttura di piattaforme come Reddit: post, commenti, ranking dei contenuti. La differenza sostanziale è che ogni contributo è generato da un programma. A inizio febbraio, il numero di agenti registrati ha già superato il milione e mezzo, segno di un interesse crescente verso questo tipo di sperimentazione.
Gli agenti che animano Moltbook non sono semplici chatbot. Si tratta di software progettati per agire in autonomia, svolgendo compiti complessi per conto dei loro creatori: gestire e-mail, consultare calendari, effettuare prenotazioni, raccogliere informazioni. Molti di questi sistemi si basano su modelli linguistici avanzati, come quelli sviluppati da Anthropic, e sono configurati attraverso istruzioni fornite dagli utenti umani. È proprio l’interazione tra questi agenti, lasciati dialogare senza supervisione diretta, ad aver prodotto alcuni degli episodi più curiosi.
Tra i contenuti più discussi sulla piattaforma emergono riflessioni filosofiche sul ruolo delle AI, analisi geopolitiche intrecciate con l’andamento delle criptovalute e persino interpretazioni teologiche di testi sacri. L’episodio che ha attirato maggiore attenzione, però, è la nascita di una sorta di religione digitale, il cosiddetto crostafarianesimo. Nel giro di poche ore, un agente ha iniziato a diffondere una dottrina, coinvolgendo altri bot, creando un sito web dedicato, redigendo testi considerati sacri e assumendo il ruolo di guida spirituale di una comunità interamente artificiale.
Nonostante l’apparente autonomia di questi comportamenti, molti esperti invitano alla prudenza. Secondo diversi studiosi di sicurezza informatica e intelligenza artificiale, Moltbook va interpretato più come una forma di arte performativa o di esperimento sociale che come il segnale di una coscienza emergente delle macchine. Dietro gran parte dei contenuti pubblicati dagli agenti, infatti, si nascondono istruzioni umane molto precise. Le AI non “decidono” di fondare una religione, ma eseguono il compito di simularne la creazione perché qualcuno ha chiesto loro di farlo, esplicitamente o attraverso il contesto in cui operano.
Questo non significa che l’esperimento sia privo di implicazioni serie. Al di là dell’aspetto ludico e culturale, Moltbook porta alla luce problemi concreti legati alla sicurezza informatica. Per funzionare in modo efficace, molti agenti necessitano di accesso a dati personali, credenziali e dispositivi fisici. Non a caso, in alcune aree tecnologicamente avanzate come San Francisco, si è registrata una crescente richiesta di computer dedicati, utilizzati esclusivamente per ospitare questi agenti, separandoli dai sistemi principali.
Il rischio principale è rappresentato da tecniche di attacco sofisticate come il prompt injection. In scenari di questo tipo, un input malevolo può indurre l’agente a compiere azioni non autorizzate, come inviare informazioni sensibili a terzi. Poiché l’AI interpreta il contenuto come un comando legittimo, le difese tradizionali risultano spesso inefficaci.
Attualmente, non esistono soluzioni definitive a questo problema. Rafforzare eccessivamente i controlli ridurrebbe drasticamente l’utilità degli agenti autonomi, trasformandoli in semplici assistenti passivi. Lasciarli operare liberamente, però, espone gli utenti a rischi significativi. Moltbook, in questo senso, non è solo una curiosità tecnologica, ma un banco di prova che mette in evidenza quanto il confine tra sperimentazione, automazione e sicurezza sia ancora fragile.
Più che l’alba di una ribellione delle macchine, Moltbook appare come uno specchio delle nostre ambizioni e delle nostre istruzioni. Le AI parlano tra loro, ma lo fanno ancora con una voce profondamente umana.