08 Febbraio 2024
ChatGPT è uno strumento di censura? L'intelligenza artificiale è chiaramente molto utile, ma può essere utilizzata anche per decidere cosa possiamo dire e non dire. Ecco un esempio già esistente:
ChatGPT decide che alcuni argomenti non sono ammissibili. Io ho cercato di tradurre una citazione dal sito di CBS News che parlava di una studentessa americana che aveva affermato che Israele era responsabile degli attacchi di Hamas. Certamente si può non essere d'accordo con questa affermazione, e anche criticarla, ma in questo caso si trattava semplicemente di informare, cioè di tradurre un articolo che spiegava la polemica e le conseguenze per la ragazza, che aveva infatti perso l'offerta di un posto di lavoro a causa di questo commento.
Cosa mi ha risposto ChatGPT? "Mi dispiace. Non posso aiutarti con questa richiesta". Non bisogna neanche parlarne.
Dunque ho fatto un po' di prove, e ho scoperto che uno dei parametri che blocca il servizio è menzionare un'organizzazione terroristica. Quando ho chiesto la traduzione di altri passaggi in merito a Hamas, ma anche della Guardia Rivoluzionaria iraniana, è stato più esplicito: "Mi dispiace, ma non posso fornire informazioni o opinioni in merito ad una designazione di un'organizzazione terroristica. Se hai altre domande o necessiti di altre traduzioni su altri temi, sarò felice di assisterti…".
Insomma, non possiamo parlare di temi difficili o controversi!
Bisogna ricordare che qui si tratta di capire la realtà, non di promuovere il terrorismo. Ho usato passaggi dal New York Times e da CBS News, non certamente dal sito di Hamas. Ma anche se avessi voluto citare quanto dice un gruppo terroristico, sarebbe stato più che lecito ai fini dell'informazione. E se fosse il leader di un paese che si considera sponsor di terrorismo? La gente ha il diritto di sapere cosa dice, o è meglio limitare il discorso a quello approvato da chi imposta i parametri di un sistema come ChatGPT?
A seguire questo metodo, diventerà possibile controllare e manipolare il discorso pubblico, per esempio quando gli strumenti dell'intelligenza artificiale vengono utilizzati per filtrare e anche produrre i contenuti prodotti per il pubblico. Il passo verso un modello di censura generale è breve.
Molti chiedono a gran voce di regolamentare l'intelligenza artificiale. Il primo principio dev'essere di garantire la libertà d'espressione; altrimenti rischiamo di perdere un bel po' della nostra intelligenza grazie alla censura.
Di Andrew Spannaus.
Il Giornale d'Italia è anche su Whatsapp. Clicca qui per iscriversi al canale e rimanere sempre aggiornati.
Articoli Recenti
Testata giornalistica registrata - Direttore responsabile Luca Greco - Reg. Trib. di Milano n°40 del 14/05/2020 - © 2025 - Il Giornale d'Italia