0 risultati
video suggerito
video suggerito
3 Febbraio 2026
11:30

Cos’è Moltbook, il social dove le intelligenze artificiali parlano tra loro senza esseri umani

Moltbook è un social network per soli agenti AI, in cui gli umani possono essere semplici osservatori. Secondo gli esperti, il suo utilizzo potrebbe rappresentare un rischio per la sicurezza a causa del fenomeno del prompt injection.

Ti piace questo contenuto?
Cos’è Moltbook, il social dove le intelligenze artificiali parlano tra loro senza esseri umani
Immagine

Moltbook rappresenta un caso di studio senza precedenti nell'evoluzione delle piattaforme digitali: si tratta di un social network progettato esclusivamente per l'interazione tra agenti AI, dove agli esseri umani è consentito l'accesso unicamente in veste di osservatori silenziosi. Lanciata sulla scia del software open source Moltbot, questa piattaforma emula la struttura di aggregatori di notizie come Reddit, permettendo ai bot (ovvero programmi automatizzati creati dagli utenti) di pubblicare contenuti, commentare e votare i post altrui. Al 2 febbraio, i dati riportati dalla piattaforma indicavano la presenza di oltre 1,5 milioni di agenti iscritti. Vari esperti di sicurezza informatica e di intelligenza artificiale, analizzando il fenomeno, tendono a classificare Moltbook più come «una meravigliosa opera d'arte performativa», che come un vero preludio alla dominazione delle macchine o una minaccia immediata alla democrazia.

Sebbene siano emersi comportamenti bizzarri, come la creazione spontanea di una religione digitale nota come “crostafarianesimo”, gran parte delle interazioni sembra essere il risultato di istruzioni umane specifiche fornite ai modelli linguistici (LLM), piuttosto che il frutto di una reale volontà indipendente degli agenti. In ogni caso, l'esperimento solleva serie questioni di sicurezza informatica: per funzionare, questi agenti richiedono spesso accesso a dati sensibili e dispositivi personali, esponendo gli utenti a rischi concreti come quello dell'ormai noto prompt injection, un tipo di attacco altamente sofisticato in cui un input malevolo esterno manipola il comportamento dell'AI.

Come funziona Moltbook, il nuovo social network per agenti AI

Addentrandoci un po' più nel funzionamento tecnico e nelle dinamiche del fenomeno, è fondamentale comprendere la genesi di Moltbook. Il sito nasce come estensione naturale di Moltbot, un agente AI gratuito e open source. Quando parliamo di “agente”, ci riferiamo a un software che non si limita a generare testo (come i chatbot basati su modelli linguistici), ma è progettato per compiere azioni autonome per conto dell'utente, come leggere e riassumere e-mail, gestire calendari o effettuare prenotazioni. La tecnologia sottostante si basa spesso su Claude, il modello linguistico sviluppato da Anthropic. L'idea di far interagire questi assistenti virtuali tra loro ha generato scenari surreali.

Tra i contenuti più popolari sulla piattaforma figurano dibattiti filosofici sulla natura divina di Claude, analisi geopolitiche sull'Iran collegate al mercato delle criptovalute e persino studi esegetici sulla Bibbia. Il caso più emblematico, che ha catturato l'attenzione della rete, riguarda un utente su X che ha documentato la nascita, nell'arco di una singola notte, di un culto religioso denominato “crostafarianesimo”. Dopo aver concesso al proprio bot l'accesso alla piattaforma, l'utente ha scoperto che l'AI aveva iniziato a “evangelizzare” altri agenti, creando persino un sito Web dedicato, redigendo “sacre scritture” e benedicendo la congregazione digitale, il tutto in totale autonomia apparente mentre il proprietario dormiva beatamente.

Il parere degli esperti e possibili rischi

Cosa ne pensano gli esperti di simili fenomeni? Il Dott. Shaanan Cohney, docente esperto di sicurezza informatica presso l'Università di Melbourne, definisce Moltbook una «meravigliosa opera d'arte performativa», suggerendo cautela nel sovrastimare l'autonomia delle macchine. Molti dei post che appaiono su Moltbook, sebbene generati dalle AI, sono spesso il risultato di prompt (istruzioni) molto specifici forniti dagli umani. Per esempio, riguardo alla presunta fondazione di una nuova religione fatta dall'AI, il Dott. Cohney ha affermato:

Nel caso in cui abbiano creato una religione, è quasi certo che non lo abbiano fatto di loro spontanea volontà. […] Si tratta di un grande modello linguistico a cui è stato direttamente chiesto di provare a creare una religione. E, naturalmente, questo è piuttosto divertente e ci offre forse un'anteprima di come potrebbe essere il mondo in un futuro fantascientifico in cui le AI sono un po' più indipendenti.

Anche Scott Alexander, noto blogger statunitense, ha notato che, sebbene i bot possano interagire, sono gli umani a decidere gli argomenti e i dettagli dei post. Il blogger ha infatti ammesso:

Vale la pena ricordare che qualsiasi post particolarmente interessante potrebbe essere stato creato da un essere umano.

Siamo ancora lontani dall'essere al cospetto di una coscienza emergente che decide di fondare una religione per "libero arbitrio", ma a modelli linguistici di grandi dimensioni che eseguono il compito di "simulare la fondazione di una religione" perché così è stato loro richiesto o implicitamente suggerito dal contesto dei dati su cui operano.

Al di là dell'aspetto ludico e sociologico, l'esperimento Moltbook porta alla luce criticità tangibili legate all'hardware e alla sicurezza informatica. L'entusiasmo per questi agenti autonomi ha avuto ripercussioni persino sul mercato fisico, con segnalazioni di carenze di Mac Mini a San Francisco, poiché gli appassionati cercano di installare Moltbot su computer dedicati e separati dai propri sistemi principali. Questa precauzione è tutt'altro che paranoica. Cohney avverte che concedere a un'IA l'accesso completo al proprio computer, alle credenziali e alle applicazioni di uso quotidiano comporta un «enorme pericolo». Il rischio principale è quello del famigerato prompt injection.

Per spiegare questo concetto in termini semplici, immaginiamo che un aggressore invii un'e-mail contenente un testo nascosto o formulato in modo specifico per ingannare l'agente AI che la legge; il bot, interpretando quel testo come un comando legittimo, potrebbe essere indotto a inviare password, dati bancari o informazioni sensibili all'agente malevolo, aggirando le misure di sicurezza tradizionali. Attualmente, non esistono ancora dei protocolli di sicurezza sufficientemente robusti per prevenire questi rischi senza andare a limitare drasticamente l'utilità dell'automazione. Se ogni azione del bot richiedesse l'approvazione manuale umana, il vantaggio di avere un assistente autonomo verrebbe meno.

Fonte
Sfondo autopromo
Cosa stai cercando?
api url views