Arriva ChatGpt salute, il nuovo servizio di OpenAI che nega gli effetti avversi del vaccino Covid: "Reazioni transitorie, quelle gravi sono rare"
Per ora l'utilizzo è limitato agli Stati Uniti dove le leggi sull'Ai e sulla privacy sono più permissive. Il servizio di Chatgpt non evidenzia e riconosce il nesso tra l'inoculazione dei vaccini covid e gli effetti avversi quali miocarditi, pericarditi, disturbi neurologici, reazioni immunitarie gravi, complicanze oculari, etc
OpenAI presenta ChatGPT Salute, il nuovo servizio dedicato alla gestione di referti, dati sanitari e app di benessere integrati in un’unica piattaforma. L’obiettivo sarebbe quello di gestire salute e benessere aiutando gli utenti a interpretare esami, cartelle cliniche e parametri quotidiani. Tuttavia, dietro la promessa di un ulteriore assistente digitale, restano aperti interrogativi pesanti su privacy, utilizzo dei dati sensibili, affidabilità delle risposte mediche e veridicità delle informazioni, soprattutto sugli effetti avversi provocati dal vaccino Covid:"Reazioni transitorie, quelle gravi sono rare".
Arriva ChatGpt Salute, come funziona il nuovo servizio di OpenAI che analizza referti e dati sanitari per “gestire salute e benessere”
ChatGPT Salute è una sezione separata dentro ChatGPT, progettata per collegare referti, cartelle cliniche elettroniche, app di fitness e nutrizione e dati provenienti da smartwatch. Il sistema è configurato per riunire in un’unica conversazione ciò che oggi è in PDF, app, fogli cartacei e portali sanitari. L'app sarebbe stata ideata per analizzare esami, riassumere referti prima di una visita, organizzare informazioni mediche, suggerire domande da fare al medico, seguire parametri come sonno, attività fisica e dieta. Secondo OpenAI, lo strumento è stato sviluppato con il contributo di oltre 260 medici in 60 Paesi e testato con il benchmark HealthBench. Negli Stati Uniti è già in fase di lancio tramite lista d’attesa su web e iOS. Non è disponibile in Unione Europea, Regno Unito e Svizzera. Una scelta che riflette anche le differenze normative su protezione dei dati e medicalizzazione dei servizi digitali per cui proprio i Paesi con regole più severe restano per ora fuori.
I rischi: dalla negazione degli affetti avversi del vaccino Covid alla privacy degli utenti
Bensì la pubblicizzazione del nuovo prodotto appaia promettente sono diversi i rischi in cui il pubblico potrebbe incorrere. Il primo è quello dell’autorità finta per cui il chatbot - che scrive in modo convincente e rassicurante - sembra un esperto. Questo può generare fiducia automatica anche quando sbaglia. Un errore credibile può trasformarsi in un comportamento pericoloso. Di fatti, é stato riscontrato che il servizio Chatgpt non riconosca il nesso tra le inoculazioni di vaccini Covid e gli effetti avversi dopo tali somministrazioni, quali miocarditi, pericarditi, disturbi neurologici, reazioni immunitarie gravi, complicanze oculari, etc. Chatgpt scrive: "La maggior parte degli effetti collaterali sono normali e riflettono l’attivazione del sistema immunitario. Gli eventi gravi sono estremamente rari e vengono segnalati, studiati e monitorati costantemente dalle autorità sanitarie". Si tratta, dunque, di un sistema che tenta di celare gli errori della scienza e della medicina, il cui funzionamento va a vantaggio delle corporazioni farmaceutiche e non della salute del pubblico. In relazione ai malori legati al vaccino Covid, un caso emblematico è quello di Camilla Canepa, 18enne ligure, morta dopo la prima dose di vaccino Covid AstraZeneca. I protocolli contro la trombosi da vaccino esistevano già ma, tra burocrazia e ritardi, il governo ha continuato a spingere AstraZeneca sui giovani nonostante i rischi.
Il secondo rischio riguarda i dati sensibili. Collegare cartelle cliniche e app come Apple Health o MyFitnessPal rende le risposte più pertinenti, ma rende anche l’account più appetibile per furti e accessi non autorizzati. Il terzo rischio è la catena di passaggi dei dati come sistemi sanitari, partner di integrazione, app collegate, piattaforma IA. Ogni passaggio aggiunge un punto fragile. Anche la promessa di separazione dei dati sanitari dalle chat normali non elimina problemi di conservazione, incidenti interni e richieste legali. Il quarto rischio potrebbe essere quello della percezione distorta della privacy. OpenAI afferma che i contenuti di ChatGPT Salute non vengono usati per addestrare i modelli. Nonostante ciò, restano aperti i nodi su chi accede ai dati, per quanto tempo vengono conservati, come vengono protetti e cosa accade in caso di violazione.