
Nelle ultime ore online si sente parlare tanto di Moltbot, fino a qualche giorno fa noto come Clawdbot. Si tratta di un agente AI open source. A differenza dei “classici” chatbot come ChatGPT, che si limitano a conversare o generare testo in base all’input fornito dall’utente, Moltbot è progettato per agire concretamente. Gestisce il calendario, invia messaggi su piattaforme del calibro di WhatsApp e Telegram, compila moduli e interagisce con il sistema operativo del computer. E pensare che questo software nato per combattere la noia del suo sviluppatore, Peter Steinberger. In questo approfondimento vi spiegheremo perché, nonostante l'entusiasmo che ha generato nelle community online, per il momento sia consigliabile osservare questo nuovo fenomeno digitale da una distanza di sicurezza, a meno che non si disponga di competenze tecniche avanzate per mitigare pericoli importanti come quello del prompt injection.
Cos’è Moltbot e la storia dell’agente AI
Moltbot si presenta con una promessa tanto semplice quanto ambiziosa: essere l'intelligenza artificiale che sbriga davvero le faccende al posto nostro. Sensazione, diciamocelo, che finora nessun chatbot AI è riuscito realmente a trasmetterci. La sua natura virale deriva proprio da questa capacità di integrarsi nelle applicazioni che utilizziamo quotidianamente, come WhatsApp, Telegram, Signal, Discord, iMessage o Slack, trasformandosi in un collaboratore virtuale a cui inviare messaggi e da cui ricevere messaggi su sua iniziativa, quando questo può essere utile. Dietro a questo progetto c'è la mente di Peter Steinberger, sviluppatore austriaco noto online come @steipete e fondatore di PSPDFKit.
Dopo aver venduto la sua azienda e aver attraversato un periodo di vuoto creativo durato ben tre anni, Steinberger ha ritrovato l'entusiasmo immergendosi nuovamente nello sviluppo di codice. Il risultato è stato quello che lui definiva inizialmente il suo «assistente incrostato», uno strumento creato per gestire la propria vita digitale ed esplorare i confini della collaborazione tra uomo e macchina. Fatto curioso, inizialmente Steinberger ha chiamato la sua creatura Clawdbot, in onore di Claude, il modello linguistico di Anthropic di cui Steinberger è un grande estimatore. Peccato che ad Anthropic la cosa non sia piaciuta più di tanto, visto che ha poi contattato lo sviluppatore sottolineando la violazione del marchio, e costringendolo così a un rebranding d'emergenza. Ecco perché Clawdbot ora si chiama Moltbot.
Il seguito della vicenda ha ancor più dell’incredibile: mentre Steinberger cercava di gestire il cambio nome, bot automatizzati e truffatori hanno dirottato il vecchio handle di X, creato falsi progetti di criptovaluta e persino occupato temporaneamente il nome utente GitHub personale dello sviluppatore, questo almeno stando al racconto che Steinberger stesso ha pubblicato sul blog di Moltbot e sul suo profilo X. Nonostante un debutto maldestro, la popolarità del software è cresciuta vertiginosamente e la sua accoglienza è stata esplosiva. Moltbot ha accumulato oltre 9.000 stelle su GitHub in 24 ore appena, attirando l'attenzione di figure di spicco come il ricercatore Andrej Karpathy e l'investitore David Sacks. L'interesse è stato tale da generare ripercussioni finanziarie reali, con le azioni di Cloudflare che hanno registrato un balzo del 14% nelle contrattazioni pre-mercato di martedì, spinto dall'entusiasmo degli investitori per l'infrastruttura necessaria a far girare questi agenti localmente.
Come funziona Cawdbot e i rischi: memoria persistente e prompt injection
Ma come mai tanto entusiasmo? Cosa rende tecnicamente diverso Moltbot da ChatGPT, Gemini e Meta AI? La chiave risiede nella sua memoria persistente e nelle sua proattività. Per farla breve, Moltbot ricorda praticamente per sempre le conversazioni e le informazioni che apprende tramite queste, imparando le preferenze dell'utente e servendosi di queste per agire autonomamente in suo favore, ad esempio inviando notifiche autonome, come riepiloghi giornalieri o promemoria, senza attendere alcun input da parte dell'utente stesso. Funziona operando localmente sul dispositivo dell'utente o su server, ma non nel cloud.
Per quanto possa essere utile avere un assistente virtuale che fa cose al posto tuo, molti esperti di sicurezza sono preoccupati dai rischi impliciti nell'avvalersi di software simili. Tra questi ci sono Rahul Sood e Rachel Tobac. Entrambi hanno lanciato avvertimenti molto chiari: se un agente ha accesso amministrativo al sistema, diventa un bersaglio critico. La minaccia principale è il cosiddetto “prompt injection via contenuto”. Immaginate che un criminale informatico vi invii un messaggio WhatsApp apparentemente innocuo (ma contenente istruzioni malevoli); se l'agente lo legge, quel testo potrebbe contenere istruzioni nascoste per manipolare l'AI e costringerla a compiere azioni dannose sul vostro computer, il tutto a vostra insaputa chiaramente.
Sebbene Moltbot sia open source e il suo codice sia ispezionabile da chiunque, installarlo richiede una buona consapevolezza dei rischi. Gli sviluppatori consigliano vivamente di non eseguirlo sul computer principale dove risiedono password e dati sensibili di vario genere. La soluzione ideale è utilizzare un ambiente isolato o un VPS. Per chi non avesse familiarità con il termine, un VPS (Virtual Private Server) è essenzialmente un computer remoto che si affitta e su cui si può installare software; in questo modo, se l'agente dovesse essere compromesso, i danni resterebbero confinati a quel server remoto e non intaccherebbero il proprio dispositivo personale.
Al momento, l'utilizzo sicuro di Moltbot richiede quindi precauzioni importanti ed è saggio trattarlo più come una sorta di “esperimento da laboratorio per addetti ai lavori” che per essere usato nel quotidiano. Questo, paradossalmente, ne limita l'utilità immediata per l'utente medio che vorrebbe solo un aiuto per gestire le e-mail, per ricevere messaggi su WhatsApp da un'AI che gli suggerisce di spostare la pedalata della domenica mattina al pomeriggio per via della nebbia, etc. Ma la sicurezza e la prudenza, nell'informatica, non sono mai troppe.