Lunedì, 16 Marzo 2026

Seguici su

"La libertà innanzi tutto e sopra tutto"
Benedetto Croce «Il Giornale d'Italia» (10 agosto 1943)

La guerra dell’algoritmo, l'AI parte integrante delle operazioni militari: da Gaza alla Cisgiordania al Libano all'Iran

L’intelligenza artificiale è diventata la nuova divinità laica dell’Occidente. C’è chi la usa per diagnosticare malattie, chi per scegliere un ristorante, chi per scrivere messaggi e poi c’è chi la usa per fare la guerra

16 Marzo 2026

La guerra dell’algoritmo, l'AI parte integrante delle operazioni militari: da Gaza alla Cisgiordania al Libano all'Iran

Intelligenza Artificiale

Una stanza senza finestre. Su uno schermo scorrono immagini satellitari, intercettazioni, coordinate, modelli probabilistici. Nessuno discute davvero.

Nessuno riflette troppo a lungo. Lalgoritmo ha già calcolato tutto. Probabilità di successo. Numero stimato di vittime collaterali. Finestra temporale ottimale. Qualcuno guarda i dati, annuisce, preme un pulsante. Il resto lo fa la macchina.

È così che si combattono sempre più spesso le guerre del XXI secolo.

Lintelligenza artificiale è diventata la nuova divinità laica dellOccidente.

C’è chi la usa per diagnosticare malattie, chi per scegliere un ristorante, chi per scrivere messaggi. Sam Altman, amministratore delegato di OpenAI tratteggia uno scenario piuttosto inquietante :I sistemi di intelligenza artificiale diventeranno un servizio pubblico come lacqua o lelettricità.

E poi c’è chi la usa per fare la guerra. Oramai è infatti entrata stabilmente anche nei sistemi militari. Secondo quanto rivelato dal Wall Street Journal e dal sito Axios, lAI è stata utilizzata in modo massiccio per analizzare dati e pianificare operazioni nellaggressione della Coalizione Epstein contro lIran.

La questione è emersa anche durante il duro scontro tra lamministrazione Trump e Anthropic, la società fondata nel 2021 dai fratelli Daniela e Dario Amodei dopo la loro uscita da OpenAI. Gli Amodei appartengono a quella minoranza di tecnologi che pensa che la tecnologia abbia bisogno di limiti. Su questa base hanno sviluppato il modello generativo Claude, oggi utilizzato da governi e grandi aziende in tutto il mondo. Poi hanno scoperto che il loro software era stato utilizzato per individuare e catturare Nicolás Maduro in unoperazione a Caracas. Il Pentagono, naturalmente, non li aveva avvertiti. Lo scontro ha portato alla rottura dei rapporti.

Il 25 febbraio 2026 Donald Trump ha ordinato alle agenzie federali di interrompere i contratti con Anthropic. Nel frattempo il Pentagono ha stretto nuovi accordi con OpenAIInsomma, nessun problema morale: basta cambiare fornitore.

Claude, peraltro, è  stato utilizzato insieme ai sistemi di Palantir, la società di Peter Thiel sviluppati anche con il contributo dellUnità 8200 israeliana, specializzata in intelligence elettronica. Tradotto: lintelligenza artificiale è ormai parte integrante delle operazioni militari.

Serve a Gaza.

Serve in Cisgiordania.

Serve in Libano.

Serve in Iran.

Lalgoritmo analizza, calcola, suggerisce. Poi qualcuno preme il bottone.

Secondo Craig Jones, ex direttore della divisione cybercrime dellINTERPOL, anche leliminazione della Guida Suprema iraniana Ali Khamenei è stata pianificata con il supporto di sistemi di intelligenza artificiale. Jones ha fatto un confronto illuminante. Nel 2003, durante la guerra in Iraq, il processo decisionale richiedeva mesi di discussioni, analisi e valutazioni strategiche. Oggi lo stesso processo può essere compiuto in pochi minuti. Ma la velocità non è il vero problema.

Jones individua due questioni centrali: il margine derrore e la responsabilità.

Nei sistemi utilizzati per selezionare gli obiettivi il margine derrore stimato si aggira infatti attorno al 10%. In guerra questo significa migliaia di morti civili. Ma c’è qualcosa di ancora più grave. Perfino la guerra, per quanto mostruosa, ha sempre avuto delle regole.

Una di queste regole è la catena di comando: deve essere possibile sapere chi ha deciso.

Chi ha dato lordine.

Chi ha pianificato loperazione.

Chi ha premuto il pulsante.

Con lintelligenza artificiale questa catena rischia di dissolversi.

Il generale dirà che ha seguito le indicazioni del software.

Lanalista dirà che ha inserito i dati.

Lazienda dirà che ha fornito solo uno strumento.

Alla fine non resta nessuno.

Il filosofo Günther Anders lo aveva previsto già negli anni Cinquanta, riflettendo sullera atomica:Quando luomo diventa soltanto lesecutore di un apparato, la responsabilità svanisce. È esattamente il punto. Lintelligenza artificiale non rende soltanto la guerra più veloce. Sottrae gli uomini alla responsabilità.

Per questo, secondo Craig Jones, il suo impiego sistematico nella selezione degli obiettivi militari viola apertamente la Convenzione di Ginevra: perché colpisce con un margine derrore elevato uccidendo civili innocenti e perché potenzialmente rende impossibile stabilire chi abbia deciso di uccidere.

Ed è forse proprio questo uno dei veri motivi del suo successo. Se un giorno qualcuno dovesse chiedere conto di una strage, la risposta sarà semplice.

Non è stato il generale.

Non è stato il governo.

Non è stato il pilota.

È stato lalgoritmo.

E lalgoritmo, a differenza degli uomini, non finisce mai davanti a un tribunale.

Di Marco Pozzi

Il Giornale d'Italia è anche su Whatsapp. Clicca qui per iscriversi al canale e rimanere sempre aggiornati.

Commenti Scrivi e lascia un commento

Condividi le tue opinioni su Il Giornale d'Italia

Caratteri rimanenti: 400

x