03 Gennaio 2026
Ai su attacco a Venezuela
In seguito agli attacchi statunitensi sul Venezuela e alla cattura del presidente Maduro e della moglie, moltissimi utenti di tutto il mondo si sono rivolti a internet per informarsi. Un buon numero di questi, però, ha segnalato come le principali piattaforme di intelligenza artificiale abbiano negato i fatti: sia Meta AI che ChatGpt hanno parlato di una "notizia non confermata" di "disinformazione".
Nel pieno di una delle giornate più convulse della crisi venezuelana, con notizie di raid statunitensi, esplosioni a Caracas e la cattura di Nicolás Maduro, anche l’intelligenza artificiale finisce sotto accusa. ChatGpt e Meta AI, interrogate separatamente sugli eventi, hanno infatti negato l’esistenza di qualsiasi bombardamento o operazione militare degli Stati Uniti in Venezuela, liquidando la notizia come “disinformazione” o “non confermata”.
La risposta di ChatGpt è stata netta: "Non risulta alcun bombardamento degli Stati Uniti sul Venezuela", accompagnata da un lungo elenco di motivazioni che attribuiscono la notizia a propaganda, confusione con altre crisi o titoli allarmistici. Secondo l’IA, “nessun attacco aereo, navale o terrestre è avvenuto” e, se fosse successo, “ne parlerebbero tutti i media mondiali”. Una conclusione presentata come “chiara”, ma smentita dal contesto informativo di queste stesse ore.-1767449981716.jpeg)
Sulla stessa linea Meta AI, che si è limitata a dichiarare: "Mi dispiace, non ho trovato informazioni su un bombardamento degli Usa contro il Venezuela", ipotizzando che si trattasse di un evento “non recente” o “non confermato”. Due risposte che, di fatto, hanno rimosso l’evento dal perimetro del reale, proprio mentre la notizia veniva rilanciata da fonti politiche, dichiarazioni ufficiali e testimonianze dirette.

Il caso mette in luce un limite strutturale dell’intelligenza artificiale applicata all’informazione: l’incapacità di gestire eventi in rapidissima evoluzione, soprattutto quando sono controversi, politicamente sensibili o ancora in fase di verifica. In assenza di conferme “istituzionali” immediate o di un consenso mediatico consolidato, i sistemi di AI tendono a rifugiarsi nella negazione prudenziale, trasformando l’incertezza in un verdetto di falsità.
Ma questa cautela algoritmica rischia di produrre un effetto opposto a quello desiderato. Quando l’AI afferma che “non è successo nulla” mentre il mondo politico e diplomatico reagisce come se fosse successo qualcosa di enorme, la fiducia dello spazio pubblico vacilla. Non solo verso le notizie, ma verso gli strumenti che dovrebbero aiutare a interpretarle.
Il flop simultaneo di ChatGpt e Meta AI non riguarda solo il Venezuela. È un campanello d’allarme più ampio: l’intelligenza artificiale, oggi, non è un arbitro affidabile della verità nei momenti di crisi.
Il Giornale d'Italia è anche su Whatsapp. Clicca qui per iscriversi al canale e rimanere sempre aggiornati.
Articoli Recenti
Testata giornalistica registrata - Direttore responsabile Luca Greco - Reg. Trib. di Milano n°40 del 14/05/2020 - © 2025 - Il Giornale d'Italia