"Per raid Usa sull'Iran utilizzati programmi AI di Anthropic e Palantir testati a Gaza per uccidere i palestinesi" - RUMORS

Dall’analisi dei dati ai bersagli militari: l’uso dell’IA nelle operazioni Usa contro l’Iran solleva interrogativi su etica, precisione e interessi economici

Secondo diverse fonti vicine al Pentagono, gli Stati Uniti avrebbero utilizzato su larga scala l'intelligenza artificiale per programmare e poi lanciare i raid contro l'Iran nel conflitto causato dall'aggressione israelo-americana. Come già noto, i militari statunitensi hanno utilizzato il programma Cloude della società Anthropic, ma adesso circolerebbero rumors secondo cui anche il "Project Maven" di Palantir sarebbe stato impiegato per targettizzare obiettivi sensibili. Una mossa che risveglia in molti anche interrogativi etici, dato che Palantir ha sviluppato gran parte delle sue tecnologie a Gaza, permettendo a Israele di uccidere oltre 72 mila palestinesi.

"Per raid Usa sull'Iran utilizzati programmi AI di Anthropic e Palantir testati a Gaza per uccidere i palestinesi" - RUMORS

L’intelligenza artificiale entra sempre più nel cuore delle operazioni militari, e il conflitto tra Stati Uniti, Israele e Iran rappresenta uno dei casi più discussi. Al centro del dibattito c’è Palantir Technologies, società statunitense specializzata in analisi dei dati, accusata da alcune fonti di svolgere un ruolo chiave nella selezione dei bersagli.

Secondo indiscrezioni riportate da media internazionali, il Pentagono starebbe utilizzando sistemi avanzati basati su AI per identificare e colpire obiettivi sul territorio iraniano. Tra questi, figurerebbero piattaforme sviluppate da Palantir, integrate con modelli linguistici come quelli di Anthropic, inclusa la famiglia Claude. Questi strumenti consentirebbero di analizzare grandi quantità di dati provenienti da immagini satellitari, tracciamento dei voli e altre fonti di intelligence.

Il funzionamento di tali sistemi si basa sulla capacità di incrociare informazioni in tempo reale, individuando pattern sospetti e restringendo rapidamente il campo dei possibili obiettivi. In dimostrazioni ufficiali, l’AI sarebbe stata in grado di isolare target specifici, fino a identificare un singolo veicolo in un parcheggio e suggerire il mezzo più efficace per neutralizzarlo.

Tra i programmi citati emerge anche Project Maven, iniziativa del Dipartimento della Difesa volta a integrare l’intelligenza artificiale nelle operazioni militari. Secondo dichiarazioni del Ceo di Palantir, Alex Karp, questa piattaforma rappresenterebbe una componente centrale delle attuali operazioni, utilizzata anche da alleati degli Stati Uniti.

Parallelamente, si sollevano interrogativi etici e strategici. L’uso di AI per la selezione dei bersagli solleva dubbi sulla trasparenza e sull’accuratezza dei processi decisionali, soprattutto quando si tratta di attacchi in contesti urbani o sensibili. Alcune fonti parlano di migliaia di obiettivi colpiti, ma non esistono conferme indipendenti su numeri e modalità.

Un ulteriore elemento di discussione riguarda il potenziale conflitto di interessi. Piattaforme come Mosaic, sviluppate da Palantir e utilizzate anche in ambito di monitoraggio nucleare internazionale, si basano su analisi predittive che potrebbero influenzare valutazioni politiche e militari. Molti dei tool di Palantir sono inoltre stati testati e messi a punto a Gaza, quando Israele ha potuto uccidere con essi oltre 71 mila palestinesi. Allo stesso tempo, la crescita del valore azionario della società durante i conflitti recenti alimenta il dibattito sul rapporto tra tecnologia, guerra e profitto.