12 Maggio 2025
Chris Pelkey è "risorto" grazie ad un video generato dalla sorella con l'intelligenza artificiale tre anni dopo la sua morte avvenuta in una sparatoria; nel filmato il 37enne parla al suo assassino durante l'udienza per la lettura della sentenza di condanna e lo perdona. Il video ha sollevato molti interrogativi dal punto di vista etico sull'utilizzo dell'intelligenza artificiale. Derek Leben, docente di etica alla Carnegie Mellon University, teme che l'AI possa essere usata impropriamente in contesti simili: "Saremo sempre sicuri che l’AI rappresenti davvero la volontà della vittima?".
Chris era stato ucciso nel 2021 in una sparatoria stradale in Arizona. All’inizio di questo mese, grazie all’intelligenza artificiale, ha potuto "parlare" in tribunale alla lettura della sentenza del suo assassino a Phoenix.
I familiari dell’uomo, morto a 37 anni, hanno utilizzato video, foto e registrazioni vocali per ricreare una sua versione digitale in AI, capace di pronunciare in aula un discorso scritto dalla sorella Stacey Wales. Un modo, secondo loro, per dare voce a chi non può più raccontare.
“A Gabriel Horcasitas, l’uomo che mi ha sparato, è un peccato che ci siamo incontrati quel giorno in quelle circostanze. In un’altra vita saremmo potuti essere amici”, ha detto l’avatar AI di Pelkey, con in testa un cappellino grigio. “Credo nel perdono e in un Dio che perdona. L’ho sempre creduto e lo credo ancora”.
La tecnologia è stata utilizzata durante l’udienza finale, a giuria già ritirata, e ha contribuito a chiudere il procedimento contro Horcasitas, condannato a 10 anni e mezzo per omicidio colposo. Il giudice Todd Lang ha definito “sincero” l’intervento e ha apprezzato la scelta dei familiari: “Ho sentito il perdono. Grazie per questo”.
Secondo Paul Grimm, ex giudice federale e ora docente alla Duke Law School, l’uso dell’intelligenza artificiale nei tribunali dell’Arizona è in crescita. "Già oggi la Corte Suprema dello Stato utilizza sistemi AI per semplificare le sentenze e renderle accessibili", ha spiegato alla BBC. In questo caso, l’utilizzo non ha violato la legge perché non ha influito sulla decisione della giuria.
Sono però state sollevate diverse critiche dal punto di vista etico. Derek Leben, docente di etica alla Carnegie Mellon University, teme che l’intelligenza artificiale possa essere usata impropriamente in contesti simili: "Saremo sempre sicuri che l’AI rappresenti davvero la volontà della vittima?".
Per Stacey Wales "abbiamo affrontato la questione con etica e rispetto. L’intelligenza artificiale è uno strumento potente: può distruggere, ma anche costruire. E noi l’abbiamo usata per costruire memoria, verità e giustizia”.
Il Giornale d'Italia è anche su Whatsapp. Clicca qui per iscriversi al canale e rimanere sempre aggiornati.
Articoli Recenti
Testata giornalistica registrata - Direttore responsabile Luca Greco - Reg. Trib. di Milano n°40 del 14/05/2020 - © 2025 - Il Giornale d'Italia