;)
L'intelligenza artificiale, uno strumento sempre più indispensabile per chi lavora, potrebbe essere usata non solo da impiegati, contabili e creativi, ma anche dai criminali informatici: una categoria di “lavoratori” decisamente particolare. La società statunitense Anthropic, che sviluppa il modello linguistico Claude, ha recentemente pubblicato un report nel quale sostiene che la propria tecnologia è stata sfruttata da malintenzionati per attività di cybercrime ad alto livello di complessità. I casi individuati vanno dalla scrittura di codice dannoso all'organizzazione di vere e proprie campagne di estorsione, fino a frodi orchestrate da gruppi legati alla Corea del Nord. L'azienda ha segnalato come questi episodi rappresentino un salto qualitativo nelle tecniche usate dai criminali, perché l'AI consente di automatizzare decisioni, ridurre i tempi di attacco e rendere le intrusioni più difficili da rilevare. In altre parole, l'AI è la nuova arma usata per compiere crimini informatici, cosa che ci rende tutti un po' più vulnerabili, almeno potenzialmente.
Come i criminali informatici hanno usato l'AI per i loro scopi
La questione non si limita ai soli furti di dati o ai ransomware, i software malevoli che bloccano i sistemi fino al pagamento di un riscatto: l'intelligenza artificiale si rivela utile anche per manipolare persone con strategie mirate di ingegneria sociale, come nel cosiddetto “vibe hacking”, ossia l’uso dell'AI per capire come persuadere psicologicamente una vittima. Riguardo a questa tecnica, i ricercatori di Anthropic hanno spiegato di aver scovato un criminale informatico che utilizzava Claude Code per commettere furti su larga scala ed estorsioni di dati personali. L'autore dell'attacco ha colpito almeno 17 organizzazioni diverse, tra cui strutture sanitarie, servizi di emergenza, istituzioni governative e organizzazioni religiose, minacciando di rendere pubblici i dati per tentare di estorcere alle vittime il pagamento di riscatti che in alcuni casi superavano il mezzo milione di dollari in Bitcoin. A detta di Anthropic, la mente dietro questo attacco ha usato l'AI seguendo dinamiche senza precedenti. La società ha infatti spiegato:
Claude Code è stato utilizzato per automatizzare la ricognizione, raccogliere le credenziali delle vittime e penetrare nelle reti. Claude era autorizzato a prendere decisioni sia tattiche che strategiche, come decidere quali dati sottrarre e come formulare richieste di estorsione mirate dal punto di vista psicologico. Claude ha analizzato i dati finanziari sottratti per determinare gli importi appropriati dei riscatti e ha generato richieste di riscatto visivamente allarmanti che sono state visualizzate sui computer delle vittime.
L'AI, quindi, non ha funzionato come semplice strumento di appoggio da parte dei criminali informatici che l'hanno usata per perpetrare simili attacchi ma, difatti, ha avuto un ruolo di supporto strategico: suggeriva quali dati rubare, come esfiltrarli, e persino come determinare gli importi più convincenti da richiedere come riscatto.
Un altro episodio documentato riguarda la creazione di profili falsi per accedere a posizioni lavorative da remoto presso grandi aziende tecnologiche statunitensi. Secondo il report, operatori nordcoreani hanno usato Claude per scrivere candidature, tradurre testi e perfino sviluppare codice. Questo ha permesso loro di superare ostacoli culturali e linguistici che in passato limitavano il loro raggio d'azione. Una volta assunti, questi criminali informatici potevano accedere ai sistemi interni delle aziende, spesso senza destare sospetti immediati. Anthropic considera questo metodo una nuova fase nelle truffe legate al mondo dell'occupazione, perché l'uso dell’AI abbassa drasticamente la barriera di ingresso per chi cerca di infiltrarsi.
Intelligenza artificiale per i cyber crimini accelera lo sviluppo di nuovi malware
Accanto a questi episodi concreti, emergono anche alcuni scenari che potremmo definire “sperimentali”. I ricercatori di ESET hanno individuato un prototipo di ransomware chiamato PromptLock, che utilizza l'AI per generare continuamente nuovo codice dannoso. Il malware basato sull'AI è in grado di selezionare i file più sensibili, copiarli e crittografarli (cioè renderli illeggibili senza una chiave). Anche se non è ancora stato diffuso su larga scala, dimostra come l'AI possa accelerare notevolmente la creazione di nuovi malware. Non a caso Anton Cherepanov, uno dei ricercatori che ha contribuito a scovare PromptLock, ha spiegato:
Con l'aiuto dell'intelligenza artificiale, lanciare attacchi sofisticati è diventato notevolmente più semplice. Un modello AI ben configurato è ora sufficiente per creare un malware complesso e autoadattante. Se adeguatamente implementate, tali minacce potrebbero complicare gravemente il rilevamento e rendere il lavoro dei difensori della sicurezza informatica notevolmente più impegnativo.