La guerra dell’algoritmo, l'AI parte integrante delle operazioni militari: da Gaza alla Cisgiordania al Libano all'Iran
L’intelligenza artificiale è diventata la nuova divinità laica dell’Occidente. C’è chi la usa per diagnosticare malattie, chi per scegliere un ristorante, chi per scrivere messaggi e poi c’è chi la usa per fare la guerra
Una stanza senza finestre. Su uno schermo scorrono immagini satellitari, intercettazioni, coordinate, modelli probabilistici. Nessuno discute davvero.
Nessuno riflette troppo a lungo. L’algoritmo ha già calcolato tutto. Probabilità di successo. Numero stimato di vittime collaterali. Finestra temporale ottimale. Qualcuno guarda i dati, annuisce, preme un pulsante. Il resto lo fa la macchina.
È così che si combattono sempre più spesso le guerre del XXI secolo.
L’intelligenza artificiale è diventata la nuova divinità laica dell’Occidente.
C’è chi la usa per diagnosticare malattie, chi per scegliere un ristorante, chi per scrivere messaggi. Sam Altman, amministratore delegato di OpenAI tratteggia uno scenario piuttosto inquietante : “I sistemi di intelligenza artificiale diventeranno un servizio pubblico come l’acqua o l’elettricità”.
E poi c’è chi la usa per fare la guerra. Oramai è infatti entrata stabilmente anche nei sistemi militari. Secondo quanto rivelato dal Wall Street Journal e dal sito Axios, l’AI è stata utilizzata in modo massiccio per analizzare dati e pianificare operazioni nell’aggressione della Coalizione Epstein contro l’Iran.
La questione è emersa anche durante il duro scontro tra l’amministrazione Trump e Anthropic, la società fondata nel 2021 dai fratelli Daniela e Dario Amodei dopo la loro uscita da OpenAI. Gli Amodei appartengono a quella minoranza di tecnologi che pensa che la tecnologia abbia bisogno di limiti. Su questa base hanno sviluppato il modello generativo Claude, oggi utilizzato da governi e grandi aziende in tutto il mondo. Poi hanno scoperto che il loro software era stato utilizzato per individuare e catturare Nicolás Maduro in un’operazione a Caracas. Il Pentagono, naturalmente, non li aveva avvertiti. Lo scontro ha portato alla rottura dei rapporti.
Il 25 febbraio 2026 Donald Trump ha ordinato alle agenzie federali di interrompere i contratti con Anthropic. Nel frattempo il Pentagono ha stretto nuovi accordi con OpenAI. Insomma, nessun problema morale: basta cambiare fornitore.
Claude, peraltro, è stato utilizzato insieme ai sistemi di Palantir, la società di Peter Thiel sviluppati anche con il contributo dell’Unità 8200 israeliana, specializzata in intelligence elettronica. Tradotto: l’intelligenza artificiale è ormai parte integrante delle operazioni militari.
Serve a Gaza.
Serve in Cisgiordania.
Serve in Libano.
Serve in Iran.
L’algoritmo analizza, calcola, suggerisce. Poi qualcuno preme il bottone.
Secondo Craig Jones, ex direttore della divisione cybercrime dell’INTERPOL, anche l’eliminazione della Guida Suprema iraniana Ali Khamenei è stata pianificata con il supporto di sistemi di intelligenza artificiale. Jones ha fatto un confronto illuminante. Nel 2003, durante la guerra in Iraq, il processo decisionale richiedeva mesi di discussioni, analisi e valutazioni strategiche. Oggi lo stesso processo può essere compiuto in pochi minuti. Ma la velocità non è il vero problema.
Jones individua due questioni centrali: il margine d’errore e la responsabilità.
Nei sistemi utilizzati per selezionare gli obiettivi il margine d’errore stimato si aggira infatti attorno al 10%. In guerra questo significa migliaia di morti civili. Ma c’è qualcosa di ancora più grave. Perfino la guerra, per quanto mostruosa, ha sempre avuto delle regole.
Una di queste regole è la catena di comando: deve essere possibile sapere chi ha deciso.
Chi ha dato l’ordine.
Chi ha pianificato l’operazione.
Chi ha premuto il pulsante.
Con l’intelligenza artificiale questa catena rischia di dissolversi.
Il generale dirà che ha seguito le indicazioni del software.
L’analista dirà che ha inserito i dati.
L’azienda dirà che ha fornito solo uno strumento.
Alla fine non resta nessuno.
Il filosofo Günther Anders lo aveva previsto già negli anni Cinquanta, riflettendo sull’era atomica: “Quando l’uomo diventa soltanto l’esecutore di un apparato, la responsabilità svanisce”. È esattamente il punto. L’intelligenza artificiale non rende soltanto la guerra più veloce. Sottrae gli uomini alla responsabilità.
Per questo, secondo Craig Jones, il suo impiego sistematico nella selezione degli obiettivi militari viola apertamente la Convenzione di Ginevra: perché colpisce con un margine d’errore elevato uccidendo civili innocenti e perché potenzialmente rende impossibile stabilire chi abbia deciso di uccidere.
Ed è forse proprio questo uno dei veri motivi del suo successo. Se un giorno qualcuno dovesse chiedere conto di una strage, la risposta sarà semplice.
Non è stato il generale.
Non è stato il governo.
Non è stato il pilota.
È stato l’algoritmo.
E l’algoritmo, a differenza degli uomini, non finisce mai davanti a un tribunale.
Di Marco Pozzi