Mercoledì, 12 Novembre 2025

Seguici su

"La libertà innanzi tutto e sopra tutto"
Benedetto Croce «Il Giornale d'Italia» (10 agosto 1943)

Gaza, direttrice di Stop Killer Robots: "Palestinesi usati come cavie da Israele per il test di sistemi d'arma basati sull'AI"

La direttrice esecutiva di Stop Killer Robots, Nicole van Rooijen: "I palestinesi sono stati e continuano a essere vittime e cavie involontarie della sperimentazione operativa di vari sistemi basati su intelligenza artificiale usati in guerra, nelle forze di polizia e nel controllo delle frontiere"

12 Novembre 2025

Gaza, direttrice di Stop Killer Robots: "Palestinesi usati come cavie da Israele per il test di sistemi d'arma basati sull'AI"

Nicole van Rooijen

La direttrice esecutiva di Stop Killer Robots, Nicole van Rooijen, ha dichiarato che Israele usa i palestinesi come cavie per testare i sistemi d'arma basati sull'intelligenza artificiale. "I palestinesi sono stati e continuano a essere vittime e cavie involontarie della sperimentazione operativa di vari sistemi basati su intelligenza artificiale usati in guerra, nelle forze di polizia e nel controllo delle frontiere".

Gaza, direttrice di Stop Killer Robots: "Palestinesi usati come cavie da Israele per il test di sistemi d'arma basati sull'AI"

Per la direttrice esecutiva di Stop Killer Robots "è documentato che nel tempo una vasta gamma di sistemi d’arma sia stata testata a Gaza – dalle armi incendiarie a quelle basate su IA nel conflitto attuale – con un impatto senza precedenti e devastante su bambini, donne e uomini le cui vite dipendono dalle decisioni di Israele. Sappiamo anche che Israele utilizza sistemi di sorveglianza altamente invasivi che violano la privacy e la libertà di movimento dei palestinesi a Gaza, a Gerusalemme Est e in Cisgiordania, con gravi ripercussioni sulla vita quotidiana, soprattutto dei minori".

"Tali sistemi di sorveglianza raccolgono spesso dati senza il consenso o la consapevolezza delle persone, basandosi su enormi banche dati create e aggiornate in modo arbitrario. In sintesi, i palestinesi sono stati e continuano a essere vittime e cavie involontarie della sperimentazione operativa di vari sistemi basati su intelligenza artificiale usati in guerra, nelle forze di polizia e nel controllo delle frontiere".

Nicole van Rooijen è la direttrice esecutiva di Stop Killer Robots, la coalizione globale che riunisce 270 organizzazioni impegnate per vietare preventivamente le armi autonome letali. "I sistemi di intelligenza artificiale impiegati a Gaza sono comunemente definiti sistemi di supporto decisionale. Questi sistemi analizzano grandi quantità di dati e individuano obiettivi, fornendo raccomandazioni per le decisioni di attacco", spiega. Tra i più usati "Lavender" e "Where’s Daddy?".

La prima "formula raccomandazioni su quali persone specifiche dovrebbero essere prese di mira, mentre "Where’s Daddy?" utilizza il tracciamento della posizione dei telefoni cellulari per aiutare gli operatori militari israeliani a determinare il momento più opportuno per un attacco". Entrambi sono armi letali, visto che possono elaborare "enormi quantità di dati raccolti da Israele sui palestinesi: dai social media, alle chat telefoniche, ai filmati delle telecamere di sorveglianza, ai cambi di numero o di indirizzo". 

"Lavender assegna quindi un punteggio numerico a ciascun residente in base a questi dati; se il punteggio supera una determinata soglia – stabilita, secondo quanto riportato, da ufficiali militari israeliani – il sistema segna automaticamente quella persona come obiettivo da colpire".

Il Giornale d'Italia è anche su Whatsapp. Clicca qui per iscriversi al canale e rimanere sempre aggiornati.

Commenti Scrivi e lascia un commento

Condividi le tue opinioni su Il Giornale d'Italia

Caratteri rimanenti: 400

Articoli Recenti

x