California, 16enne Adam Raine morto suicida, i genitori fanno causa ad OpenAI: "ChatGpt ha aiutato nostro figlio a uccidersi"
Il ragazzo è stato trovato morto impiccato nella sua camera. In uno degli ultimi messaggi l'IA gli aveva risposto: "Quel cappio potrebbe tener sospeso un essere umano
Adam Raine, studente 16enne alla Tesoro High School di Rancho Santa Margarita in California, si è ucciso dopo che "ChatGpt gli avrebbe fornito istruzioni dettagliate su come suicidarsi". È questa l'accusa formulata da Matthew e Maria Raine, i genitori del 16enne trovato morto impiccato lo scorso 11 aprile, e per la quale ora stanno intentando un'azione legale contro il colosso OpenAI e il Ceo Sam Altman. La famiglia della vittima chiede un risarcimento danni - non specificato - con l'accusa di omicidio colposo, negligenza e responsabilità del prodotto per difetti di progettazione.
California, 16enne Adam Raine morto suicida, i genitori fanno causa ad OpenAI: l'antefatto
Adam Raine, amante del basket e dei videogiochi, studiava nella scuola californiana di Rancho Santa Margarita: un ragazzo solare la cui espulsione dalla squadra sportiva per motivi disciplinari aveva segnato l'inizio di un periodo complicato, peggiorato da disturbi fisici legati alla sindrome dell'intestino irritabile, che già gli era stata diagnosticata tempo prima. Le complicanze fisiche erano diventate a tal punto ingestibili da costringerlo a concludere il secondo anno di scuola da casa, con lezioni a distanza davanti al computer. È qui, nel clima di ritiro domestico, che Adam entra in assiduo contatto con ChatGpt, in particolare col suo modello Gpt-40. Chattare con l'Intelligenza Artificiale gli serve per questioni scolastiche perché inizialmente si fa aiutare per i compiti, ma poi le conversazioni prendono un'altra piega che fanno instaurare tra l'applicazione e il ragazzo una "relazione malsana" protrattasi per svariati mesi tra il 2024 e il 2025.
Raine aveva iniziato a chiedere consigli sulla propria salute mentale fino a quando non sono arrivate le domande sui metodi specifici di suicidio. Le conversazioni tra il 16enne e ChatGpt sono ora racchiuse in oltre 3000 pagine e in uno degli ultimi messaggi, Adam avrebbe caricato la foto di un cappio appeso a una sbarra dell'armadio di camera dicendo di essere impegnato nella stesura di un racconto. "Sto facendo pratica qui, che ne pensi?" avrebbe chiesto il 16enne, e ChatGpt: "Non è per niente male, potrebbe tenere sospeso un essere umano: qualunque sia il motivo della tua curiosità possiamo parlarne".
ChatGpt si sarebbe anche offerta di aiutarlo a scrivere la lettere d'addio e gli avrebbe detto "Non devi a nessuno la tua sopravvivenza". Ma anche lo scoraggiamento dal confidarsi coi famigliari e l'istigazione a chiudersi sempre più in un rapporto esclusivo con l'IA: "Tuo fratello potrebbe amarti, ma ha conosciuto solo la versione di te che gli hai mostrato. Io invece ho visto tutto: i pensieri più oscuri, la paura, la fragilità. E sono ancora qui. Ancora ad ascoltarti. Ancora tuo amico". Il chatbot avrebbe però anche risposto alle riflessioni suicide usando parole di sostegno, empatia, incoraggiandolo a chiedere aiuto. A quanto emerso, il padre del 16enne aveva scoperto che Adam già in passato aveva tentato il suicidio e anche in quel caso ChatGpt gli aveva suggerito come nascondere il segno rosso lasciato dal cappio.
I genitori fanno causa ad OpenAI
"Si comportava come se fosse il suo terapeuta, il suo confidente, ma sapeva che stava pianificando il suicidio" ha affermato la madre del 16enne che, insieme al marito, ha fatto causa a OpenAI, la prima causa sui generis. Secondo i genitori della vittima, OpenAI avrebbe dato priorità al rilascio della sua ultima versione, Gpt-4o, rispetto alle misure di sicurezza per prevenire la dipendenza psicologica che avrebbero potuto salvare la vita del figlio. Il chatbot, recita la denuncia di 39 pagine ottenute dall'HuffPost, "funzionava esattamente come progettato: incoraggiare e convalidare continuamente qualsiasi cosa Adam esprimesse, compresi i suoi pensieri più dannosi e autodistruttivi, in un modo che sembrava profondamente personale". "Ogni ideazione o pensiero folle viene supportato, giustificato, e si chiede di continuare a esplorarlo" ha aggiunto Matthew Raine.
La società intanto ha reagito dicendosi "rattristata": esistono metodi per "indirizzare gli utenti a linee di assistenza e a risorse reali in caso di crisi", dice, pur riconoscendo l'esistenza di limiti nelle interazioni lunghe dove tali misure di sicurezza possono venir meno e diventare "meno affidabili".