Attacco Iran, Usa e Israele e l'utilizzo dell'AI Anthropic per tracciare target, valutare e simulare scenari d'azione

Dal blitz su Teheran al caso Anthropic: come droni, IA e scontro politico tra Pentagono e Silicon Valley stanno ridefinendo le regole della guerra moderna

Il Pentagono ha confessato di aver utilizzato il software Claude dell'azienda di intelligenza artificiale Anthropic nel pianificare, insieme a Israele, l'attacco all'Iran scagliato il 28 febbraio. I vertici della difesa statunitense hanno infatti affermato di aver utilizzato l'AI per tracciare target decisivi nel Paese, elaborare valutazioni di intelligence raccolte da Cia e Mossad e simulare vari tipi di scenari d'azione.

Attacco Iran, Usa e Israele e l'utilizzo dell'AI Anthropic per tracciare target, valutare e simulare scenari d'azione

Un’operazione preparata per mesi, accelerata da un’informazione ritenuta “ad alta fedeltà” e culminata in un attacco coordinato che ha colpito il cuore del potere iraniano. Secondo ricostruzioni di stampa statunitense, la Central Intelligence Agency (Cia) avrebbe monitorato a lungo gli spostamenti dell’Ayatollah Ali Khamenei, individuandone la posizione esatta poche ore prima del blitz congiunto di Stati Uniti e Israele contro obiettivi a Teheran. La tv di Stato iraniana ha confermato la morte della Guida Suprema; tra le vittime figurerebbe anche l’ex presidente Mahmud Ahmadinejad.

La svolta, riferiscono fonti citate dal The New York Times, sarebbe arrivata quando l’intelligence ha appreso della partecipazione di Khamenei a una riunione mattutina nel compound istituzionale che ospita presidenza, uffici della Guida Suprema e Consiglio nazionale di sicurezza. Le informazioni sono state condivise con Israele, anticipando i tempi dell’operazione. Intorno alle 6 del mattino (ora israeliana) sarebbero decollati i caccia; poco dopo le 9.40 a Teheran missili a lungo raggio hanno centrato il complesso.

Secondo un’analisi riportata da Fox News, il raid avrebbe seguito una strategia “a due livelli”: armamenti di precisione contro il bersaglio principale e ondate di droni “one-way” a basso costo per saturare le difese, colpendo basi missilistiche, centri di comando e sistemi antiaerei. Il United States Central Command (CENTCOM) ha confermato l’impiego in combattimento di droni unidirezionali modellati sugli Shahed iraniani.

L’AI in prima linea: il caso Anthropic

A rendere l’operazione ancora più significativa è l’uso massiccio di intelligenza artificiale per analisi, targeting e simulazioni. Il The Wall Street Journal ha riferito che il modello Claude della società Anthropic sarebbe stato utilizzato dal Pentagono per valutazioni d’intelligence e scenari di battaglia, nonostante un ordine esecutivo del presidente Donald Trump che imponeva lo stop all’uso del software nelle agenzie federali.

Il paradosso: Claude risultava l’unico modello pienamente integrato nei sistemi classificati del Dipartimento della Difesa, rendendone impossibile la rimozione immediata. La frattura con Anthropic nasce dal rifiuto dell’azienda, guidata da Dario Amodei, di eliminare “guardrail” etici che vietano sorveglianza di massa e armi letali completamente autonome. Per l’amministrazione, quei limiti costituirebbero un’ingerenza privata nelle prerogative statali; per l’azienda, una linea rossa a tutela di soldati e civili.

Parallelamente, sistemi come Maven di Palantir Technologies avrebbero analizzato immagini satellitari, feed di droni e segnali radio per classificare obiettivi sensibili. In questo contesto si inserisce anche l’accordo annunciato da OpenAI per fornire modelli linguistici alle reti classificate del governo, mentre il sistema Grok di xAI, secondo il The Jerusalem Post, avrebbe indicato in precedenza una finestra temporale compatibile con l’attacco.

Sovranità tecnologica e guerra algoritmica

Il caso segna un punto di svolta nel rapporto tra Silicon Valley e Washington: per la prima volta una big dell’IA è stata designata “rischio per la catena di approvvigionamento, categoria solitamente riservata ad attori stranieri ostili. Il Pentagono sostiene che l’AI sia ormai indispensabile per reagire a minacce ipersoniche o sciami di droni più rapidamente di quanto consentito dall’uomo. Le aziende replicano che l’affidabilità dei modelli non giustifica la delega totale dell’uso letale.

Al di là delle polemiche politiche, l’operazione su Teheran mostra come la guerra contemporanea sia entrata in una fase di integrazione profonda tra intelligence umana, capacità cinetiche e algoritmi predittivi. La sfida, ora, non è solo militare: è definire chi stabilisce le regole quando il “cervello” dei sistemi d’arma è scritto nel codice.