Martedì, 23 Settembre 2025

Seguici su

"La libertà innanzi tutto e sopra tutto"
Benedetto Croce «Il Giornale d'Italia» (10 agosto 1943)

IA, appello di 200 esperti all'Onu: "Servono 'linee rosse', regole per prevenire rischi su larga scala potenzialmente irreversibili"

L’iniziativa, chiamata Global Call for AI Red Lines, è stata promossa da organizzazioni come CeSIA (French Center for AI Safety), The Future Society e il Center for Human-Compatible Artificial Intelligence dell’Università di Berkeley, con il sostegno di oltre 70 istituzioni legate alla ricerca sull’AI

23 Settembre 2025

Axel Springer licenzia i giornalisti di Upday e li sostituisce con l'Intelligenza Artificiale, è il primo editore

Intelligenza Artificiale. Fonte: Imagoeconomica.it

Oltre 200 tra ex capi di Stato, diplomatici, premi Nobel, scienziati e figure di spicco del settore tecnologico hanno sottoscritto un appello per l’adozione, entro il 2026, di un accordo politico internazionale che vieti alcune applicazioni dell’Intelligenza Artificiale considerate troppo rischiose.

L’iniziativa, chiamata Global Call for AI Red Lines, è stata promossa da organizzazioni come CeSIA (French Center for AI Safety), The Future Society e il Center for Human-Compatible Artificial Intelligence dell’Università di Berkeley, con il sostegno di oltre 70 istituzioni legate alla ricerca sull’AI. Il lancio ufficiale è avvenuto in occasione dell’80ª Assemblea Generale delle Nazioni Unite a New York, dove la Nobel per la Pace Maria Ressa ha sottolineato l’urgenza di porre fine alla “impunità delle Big Tech” attraverso regole globali vincolanti.

IA, appello di 200 esperti all'Onu: "Servono 'linee rosse', regole per prevenire rischi su larga scala potenzialmente irreversibili"

"Non possiamo aspettare che accadano disastri irreversibili: è necessario agire in anticipo", ha dichiarato Charbel-Raphaël Segerie, direttore esecutivo del CeSIA, spiegando che, pur in assenza di un consenso sui benefici dell’AI, i governi devono almeno concordare su ciò che l’AI non deve mai fare.

Tra i firmatari spiccano nomi come Geoffrey Hinton (pioniere delle reti neurali), Wojciech Zaremba (cofondatore di OpenAI), Jason Clinton (CISO di Anthropic) e Ian Goodfellow (Google DeepMind). Tutti accomunati dalla convinzione che esistano limiti che non devono mai essere superati, come ad esempio la capacità degli algoritmi di auto-replicarsi o di simulare esseri umani.

Alcuni esempi di “linee rosse” già esistono: l’AI Act dell’Unione Europea vieta applicazioni ritenute “inaccettabili”, mentre Stati Uniti e Cina hanno concordato che il controllo delle armi nucleari debba restare in mani umane. Tuttavia, manca ancora un quadro condiviso a livello globale: gli impegni volontari delle aziende tech, infatti, non sono né vincolanti né sufficienti.

Secondo Niki Iliadis, esperta di governance dell’AI per The Future Society, sarà necessaria la creazione di un organismo indipendente con reali poteri di controllo e applicazione delle regole.

Anche il professor Stuart Russell dell’Università di Berkeley ha messo in guardia: "Come per il nucleare, non si costruiscono impianti senza sapere come renderli sicuri. L’AI deve seguire lo stesso principio". E ha aggiunto: "Non esiste un vero conflitto tra innovazione e sicurezza: possiamo sviluppare un’AI utile senza oltrepassare soglie pericolose che non sappiamo controllare".

Il Giornale d'Italia è anche su Whatsapp. Clicca qui per iscriversi al canale e rimanere sempre aggiornati.

Commenti Scrivi e lascia un commento

Condividi le tue opinioni su Il Giornale d'Italia

Caratteri rimanenti: 400

Articoli Recenti

x