Lunedì, 05 Gennaio 2026

Seguici su

"La libertà innanzi tutto e sopra tutto"
Benedetto Croce «Il Giornale d'Italia» (10 agosto 1943)

Raid Usa in Venezuela, la negazione dei fatti dell'AI, flop di Meta "Notizia non confermata" e ChatGpt "Nessun bombardamento, disinformazione"

Raid Usa in Venezuela, ma le IA negano tutto: ChatGpt e Meta AI parlano di “disinformazione”. Un corto circuito tra algoritmi e realtà

03 Gennaio 2026

Ai su attacco a Venezuela

Ai su attacco a Venezuela

In seguito agli attacchi statunitensi sul Venezuela e alla cattura del presidente Maduro e della moglie, moltissimi utenti di tutto il mondo si sono rivolti a internet per informarsi. Un buon numero di questi, però, ha segnalato come le principali piattaforme di intelligenza artificiale abbiano negato i fatti: sia Meta AI che ChatGpt hanno parlato di una "notizia non confermata" di "disinformazione".

Raid Usa in Venezuela, la negazione dei fatti dell'AI, flop di Meta "Notizia non confermata" e ChatGpt "Nessun bombardamento, disinformazione"

Nel pieno di una delle giornate più convulse della crisi venezuelana, con notizie di raid statunitensi, esplosioni a Caracas e la cattura di Nicolás Maduro, anche l’intelligenza artificiale finisce sotto accusa. ChatGpt e Meta AI, interrogate separatamente sugli eventi, hanno infatti negato l’esistenza di qualsiasi bombardamento o operazione militare degli Stati Uniti in Venezuela, liquidando la notizia come “disinformazione” o “non confermata”.

La risposta di ChatGpt è stata netta: "Non risulta alcun bombardamento degli Stati Uniti sul Venezuela", accompagnata da un lungo elenco di motivazioni che attribuiscono la notizia a propaganda, confusione con altre crisi o titoli allarmistici. Secondo l’IA, “nessun attacco aereo, navale o terrestre è avvenuto” e, se fosse successo, “ne parlerebbero tutti i media mondiali”. Una conclusione presentata come “chiara”, ma smentita dal contesto informativo di queste stesse ore.

Sulla stessa linea Meta AI, che si è limitata a dichiarare: "Mi dispiace, non ho trovato informazioni su un bombardamento degli Usa contro il Venezuela", ipotizzando che si trattasse di un evento “non recente” o “non confermato”. Due risposte che, di fatto, hanno rimosso l’evento dal perimetro del reale, proprio mentre la notizia veniva rilanciata da fonti politiche, dichiarazioni ufficiali e testimonianze dirette.

Il caso mette in luce un limite strutturale dell’intelligenza artificiale applicata all’informazione: l’incapacità di gestire eventi in rapidissima evoluzione, soprattutto quando sono controversi, politicamente sensibili o ancora in fase di verifica. In assenza di conferme “istituzionali” immediate o di un consenso mediatico consolidato, i sistemi di AI tendono a rifugiarsi nella negazione prudenziale, trasformando l’incertezza in un verdetto di falsità.

Ma questa cautela algoritmica rischia di produrre un effetto opposto a quello desiderato. Quando l’AI afferma che “non è successo nulla” mentre il mondo politico e diplomatico reagisce come se fosse successo qualcosa di enorme, la fiducia dello spazio pubblico vacilla. Non solo verso le notizie, ma verso gli strumenti che dovrebbero aiutare a interpretarle.

Il flop simultaneo di ChatGpt e Meta AI non riguarda solo il Venezuela. È un campanello d’allarme più ampio: l’intelligenza artificiale, oggi, non è un arbitro affidabile della verità nei momenti di crisi.

Il Giornale d'Italia è anche su Whatsapp. Clicca qui per iscriversi al canale e rimanere sempre aggiornati.

Commenti Scrivi e lascia un commento

Condividi le tue opinioni su Il Giornale d'Italia

Caratteri rimanenti: 400

Articoli Recenti

x