0 risultati
video suggerito
video suggerito
3 Marzo 2026
9:45

Ipotesi AI di Anthropic dietro i raid in Iran, come il Comando Centrale USA potrebbe aver usato Claude per l’attacco

Secondo le indiscrezioni del Wall Street Journal, le forze americane potrebbero aver usato Claude come supporto alla guerra in Iran per operazioni di intelligence, nella selezione degli obiettivi e anche nella costruzione di simulazioni operative. Questo nonostante Trump avesse ordinato di interrompere ogni collaborazione tra il Pentagono e l'azienda.

Ti piace questo contenuto?
Ipotesi AI di Anthropic dietro i raid in Iran, come il Comando Centrale USA potrebbe aver usato Claude per l’attacco
guerra-iran-intelligenza-artificiale-claude
Immagine generata con AI.

Il Comando Centrale USA potrebbe aver fatto ricorso a strumenti di intelligenza artificiale per supportare la pianificazione e l’esecuzione della recente guerra in Iran iniziata con gli attacchi Israele-USA del 28 febbraio. Secondo le ricostruzioni di Wall Street Journal e Axios, l'esercito statunitense avrebbe utilizzato Claude, il modello linguistico di Anthropic, durante l'operazione militare condotta congiuntamente con Israele. Nella fattispecie, l'AI sarebbe stata impiegata in ambiti di intelligence, nella selezione degli obiettivi e anche nella costruzione di simulazioni operative.

Tutto questo nonostante un ordine di Donald Trump che imponeva (almeno fino a poche ore prima dell'attacco) l'interruzione di ogni collaborazione con l'azienda. Per la cronaca, il presidente USA aveva persino dichiarato sul suo social Truth che Anthropic è «un'azienda di intelligenza artificiale di sinistra radicale gestita da persone che non hanno idea di cosa sia il mondo reale». L'attrito con Anthropic si è creato in occasione del raid perpetrato lo scorso gennaio ai danni del presidente del Venezuela, Nicolás Maduro. In quell'occasione venne fuori la notizia secondo cui l'esercito aveva usato Claude per perpetrare la missione e Anthropic aveva espresso il suo disappunto in merito, sottolineando che i termini d'uso del servizio non consentono l'utilizzo di Claude per scopi violenti e di sorveglianza.

Come il Comando Centrale USA avrebbe usato l'AI di Anthropic contro l'Iran

Secondo le ricostruzioni tra loro concordanti fatte dal Wall Street Journal e da Axios, durante il bombardamento congiunto israelo-statunitense, il Comando Centrale degli Stati Uniti avrebbe continuato a utilizzare Claude per elaborare valutazioni di intelligence, cioè analisi strutturate di informazioni provenienti da fonti diverse, e per condurre simulazioni del campo di battaglia, strumenti digitali che consentono di testare virtualmente l'esito di diverse opzioni tattiche. L'AI è stata utilizzata anche per l'identificazione dei bersagli.

Ora, con questo non vogliamo dire che un algoritmo “decida” cosa e chi colpire, ma che potrebbe aver aiutato gli analisti umani a individuare correlazioni, priorità e possibili conseguenze degli attacchi, accelerando processi e decisioni che altrimenti avrebbero richiesto molto più tempo.

Sul piano operativo, l’attacco ha visto l’impiego di missili da crociera Tomahawk, caccia stealth e droni d'attacco unidirezionali, cioè velivoli senza pilota progettati per colpire un solo obiettivo e non rientrare alla base. È importante chiarire che l'AI non controlla direttamente queste armi: il suo contributo riguarda l'analisi e la pianificazione, quindi la parte strategica degli attacchi perpetrati dagli USA ai danni dell'Iran, e non la parte esecutiva degli stessi.

La rottura di Trump e l'inserimento di OpenAI

Il punto di rottura tra Anthropic e il Pentagono è stato raggiunto poche ore prima dell’inizio delle operazioni contro l'Iran, quando il presidente Donald Trump aveva ordinato l'interruzione immediata di ogni rapporto con Anthropic, accusando pubblicamente l'azienda di avere un orientamento ideologico incompatibile con le esigenze della difesa nazionale. La decisione presidenziale prevedeva un periodo di sei mesi per eliminare gradualmente i prodotti dell’azienda dai sistemi governativi. Tuttavia, come hanno sottolineato diverse fonti tecniche, quando un modello di AI è già integrato in reti classificate (ovvero infrastrutture informatiche che gestiscono dati segreti) la sua rimozione non è un semplice atto amministrativo. Servono nuove certificazioni di sicurezza, formazione del personale, test paralleli e costose integrazioni alternative. Midhun Krishna M, co-fondatore e CEO di TknOps.io, un servizio di monitoraggio dei costi per LLM, ha spiegato:

Quando gli strumenti di intelligenza artificiale sono già integrati nei sistemi di simulazione e di intelligence in tempo reale, le decisioni prese al vertice non si traducono immediatamente in cambiamenti concreti. […] Quando un modello viene incorporato in sistemi di simulazione e intelligence classificati, si assiste a costi di integrazione irrecuperabili, riqualificazione, nuove certificazioni di sicurezza e test paralleli, quindi un'eliminazione graduale di sei mesi può sembrare decisiva, ma il vero onere finanziario e operativo è molto più profondo.

Il rapporto tra Anthropic e gli Stati Uniti, come anticipato in apertura, affonda le radici in un episodio precedente: l'impiego dell'AI in un'operazione contro il presidente del Venezuela, Nicolás Maduro, che aveva spinto Anthropic a sottolineare come l'uso di Claude per il caso in questione aveva rappresentato una chiara violazione dei termini d’uso del servizio. Questi vietano esplicitamente applicazioni violente, lo sviluppo di armi autonome o la sorveglianza di massa, cioè il monitoraggio sistematico e su larga scala di popolazioni civili. Da quel momento, i rapporti tra il Pentagono e l’azienda si sono deteriorati. Il Segretario alla Difesa Pete Hegseth ha accusato Anthropic di rappresentare un «rischio per la sicurezza nazionale nella catena di approvvigionamento».

Dopo la rottura con Anthropic OpenAI ha annunciato un accordo con il Pentagono per l'uso dei propri strumenti, incluso ChatGPT, su reti militari classificate, come confermato dall'azienda stessa nel post su X che potete leggere qui sotto.

Sfondo autopromo
Cosa stai cercando?
api url views