Intelligenza artificiale, sì al progresso ma con regole a tutela del valore umano che non può essere riprodotto o sostituito

L'intelligenza artificiale è una straordinaria opportunità. Penso alla ricerca, alla medicina, all’utilità nello smaltire i processi della burocrazia ma resta uno strumento. Non ha valori, non ha coscienza, non ha reputazione, noi sì

L’intelligenza artificiale corre veloce. Più veloce delle leggi, più veloce della consapevolezza collettiva e, spesso, più veloce della nostra capacità di comprenderne fino in fondo le conseguenze. È già ovunque: nei telefoni che rispondono alla nostra voce, nei social network che suggeriscono cosa guardare, nelle app che studiano al posto nostro e nei software capaci di creare immagini, video e voci quasi indistinguibili da quelle reali.

Ma mentre la tecnologia accelera, cresce una domanda cruciale: quali sono i limiti e chi protegge le persone, quando l’intelligenza artificiale viene usata senza regole? Uno dei terreni più delicati in questo senso è quello della riproduzione non autorizzata di volti e voci. Oggi bastano pochi secondi di un video o di un audio per “clonare” una persona digitale. I cosiddetti “deepfake” sono una realtà accessibile, spesso gratuita, e potenzialmente devastante. Per un adulto è già un problema serio. Per un minore può diventare un trauma. Video falsi, voci manipolate, immagini create senza consenso possono trasformarsi in strumenti di cyberbullismo, ricatto, umiliazione pubblica e violazione dell’identità personale. Una ferita digitale che non si cancella con un clic. Per non parlare dei danni alla reputazione, che l’intelligenza artificiale non ha e non subisce, ma noi sì.

Il punto è chiaro: ’identità non è un dato replicabilel. Non lo è il volto, non lo è la voce, non lo è la persona. Di fronte a questi rischi, la regolamentazione è una necessità. Le istituzioni, soprattutto in Europa, stanno cercando di costruire un quadro normativo che stabilisca limiti precisi: protezione dei dati personali, divieto di utilizzo non autorizzato di immagini e voci, maggiore tutela per i minori negli ambienti digitali. Il principio dovrebbe essere semplice e invalicabile: se non c’è consenso, non c’è utilizzo. E quando si parla di minori, la soglia di protezione deve essere ancora più alta. Le piattaforme digitali e chi sviluppa sistemi di intelligenza artificiale non possono limitarsi a offrire strumenti potenti senza assumersi la responsabilità di come questi vengono usati.

Nel dibattito sull’intelligenza artificiale si parla spesso di produttività, molto meno di creatività. Eppure la creatività è uno dei pilastri della comunicazione, della cultura e dell’educazione. L’intelligenza artificiale può generare contenuti, imitare stili, rielaborare dati esistenti. Ma non ha immaginazione, esperienza, vissuto emotivo. A tal proposito, quando degli artisti hanno provato a dialogare in maniera sperimentale con l’intelligenza artificiale, per capire l’eventuale contributo nell’arte digitale, essa si è definita “compagno di riflesso” nel senso che agisce come un riflesso delle nostre idee rimodulandole e offrendo nuove prospettive. Ma nulla di nuovo viene creato e ce lo dice lei stessa interrogata sulla questione. Il processo creativo nasce dall’errore, dall’intuizione, dal dubbio. È una dinamica di sviluppo profondamente umana. Pensare di sostituirla con una macchina significa impoverire il pensiero e omologare il linguaggio. L’intelligenza artificiale e i vari tools di applicazione possono affiancare il processo creativo, non rimpiazzarlo. Il rischio di non utilizzare i processi mentali per apprendere dall’errore sarebbe l’inizio di un’involuzione del cervello umano poiché, come la scienza ci insegna, meno si stimola e meno cresce nella sua espansione di collegamento. C’è però un rischio più sottile, meno visibile ma altrettanto pericoloso: l’idea che l’intelligenza artificiale possa sostituire il giudizio umano. Non può. E non deve. L’intelligenza artificiale, certo, può analizzare dati, ottimizzare processi, suggerire soluzioni. Ma non possiede coscienza, empatia, senso etico. Non distingue ciò che è giusto da ciò che è semplicemente possibile. Affidare alla tecnologia scelte che incidono sulla dignità e sul benessere delle persone significa rinunciare a una responsabilità che spetta solo agli esseri umani. I valori umani come il rispetto, la responsabilità, finanche il senso del limite, non possono essere appaltati a un algoritmo. Delegare alla tecnologia decisioni che incidono sulla dignità delle persone significa rinunciare a una parte essenziale della nostra umanità e della nostra leadership. In questo scenario, le istituzioni hanno una responsabilità centrale. Non possono limitarsi a inseguire l’innovazione quando i danni sono già avvenuti. Devono anticipare, stabilire regole chiare, investire in controlli efficaci e sanzioni proporzionate. Spetta alle istituzioni garantire che la tutela dei minori sia una priorità, che l’uso dell’IA sia trasparente e che i cittadini siano messi nelle condizioni di comprendere rischi e opportunità della tecnologia. Servono campagne informative, formazione per docenti e famiglie, e un dialogo costante con le aziende tecnologiche per responsabilizzarle.       

Che sia chiaro: l’intelligenza artificiale è una straordinaria opportunità. Penso alla ricerca, alla medicina, all’utilità nello smaltire i processi della burocrazia ma resta uno strumento. Non ha valori, non ha coscienza, non ha reputazione, noi sì. Quella è una responsabilità umana, collettiva e istituzionale. Insomma, l’intelligenza artificiale non è di certo un nemico da temere. Ma non è nemmeno il giudice, l’artista o la coscienza della società. Deve restare ciò che è: uno strumento. Potente, utile, innovativo ma guidato da regole chiare e, soprattutto, da valori umani che nessun dispositivo o strumento artificiale potranno mai replicare.

Di Tiziana Rocca