 ChatGPT Health non convince il Jama
Categoria : Medicina digitale
Data : 31 marzo 2027
Autore : admin
Intestazione :
Testo :
Lo scorso gennaio Chat-Gpt ha proposto a livello internazionale ChatGPT Health, una AI interamente dedicata ai multiformi e complessi problemi della “ salute”. Nel gennaio scorso avevamo preso in esame questa importante innovazione evidenziandone potenzialità ma anche rischi. (1) Alcune settimane or sono il Jama, autorevolissima rivista medica americana, ha voluto verificare la validità ed utilità di questo nuovo settore di Chat-GPT.
Ecco una sintesi dell’articolo(2).
L’articolo del JAMA affronta un tema ormai centrale nella medicina contemporanea: i grandi modelli linguistici e i chatbot sanitari sono davvero pronti a rispondere in modo affidabile alle domande dei pazienti? Il punto di partenza è il lancio, da parte di OpenAI, di ChatGPT Health, presentato come strumento pensato per offrire informazioni personalizzate sulla base dei dati clinici caricati dall’utente. L’ambizione di questi sistemi è chiara: aiutare il pubblico a comprendere meglio informazioni mediche complesse, facilitare il dialogo con i curanti e, in prospettiva, ampliare l’accesso a un primo orientamento sanitario. Tuttavia, fin dall’inizio l’articolo sottolinea un principio fondamentale: questi strumenti dovrebbero essere considerati un supporto al clinico, non un sostituto del medico.
Il primo grande problema discusso è quello della sicurezza clinica. L’articolo richiama uno studio preliminare in cui ChatGPT Health non è riuscito a inquadrare in triage correttamente né i casi più gravi né quelli meno urgenti. Questo è un punto decisivo, perché un errore di sottostima può ritardare cure salvavita, mentre un errore di sovrastima può aumentare accessi impropri e sprechi di risorse. In parallelo, viene citato uno studio dell’Oxford Internet Institute: quando i casi clinici vengono forniti direttamente ai modelli, la capacità di riconoscere correttamente la condizione è molto alta; ma quando l’interazione avviene nel mondo reale, cioè attraverso il racconto incompleto e spesso impreciso del paziente, le prestazioni crollano. In pratica, il limite non è solo nel modello, ma nel circuito comunicativo uomo-macchina, dove informazioni mancanti, ambiguità e cattiva interpretazione riducono fortemente l’affidabilità del risultato. Un secondo nodo essenziale è quello della privacy. L’articolo mette in evidenza che strumenti come ChatGPT Health dichiarano misure aggiuntive di protezione, come l’esclusione delle conversazioni di ChatGPT Health dal training del modello e la possibilità di usare chat temporanee non memorizzate. Tuttavia, diversi esperti invitano alla prudenza: le rassicurazioni tecniche non equivalgono a una tutela normativa piena, e restano interrogativi su proprietà dei dati, trasferibilità, uso futuro delle piattaforme e possibili cambi di governance societaria. Da questo punto di vista, il messaggio è netto: il paziente non dovrebbe caricare con leggerezza informazioni mediche sensibili in sistemi il cui inquadramento giuridico è ancora incompleto. L’articolo mostra però anche il lato costruttivo del problema. Il valore dei modelli generativi sembra emergere soprattutto negli impieghi a basso rischio: spiegare termini medici difficili, riassumere documenti clinici, aiutare il paziente a preparare domande da porre al medico, rendere più leggibili articoli scientifici o istruzioni post-operatorie. Vengono descritti esempi interessanti di utilizzo di sistemi basati su RAG (retrieval-augmented generation), cioè modelli aggiornati sistematicamente con conoscenze validate, per tradurre e sintetizzare articoli o per fornire istruzioni post-operatorie più accessibili. In un altro studio citato, ChatGPT-4o si è mostrato più affidabile di un altro modello nel rispondere a domande dei pazienti su trial clinici e consenso informato. Ne emerge quindi un’immagine più equilibrata: non tanto “medici artificiali”, quanto interfacce intelligenti di supporto informativo.
Infine, l’articolo guarda al futuro regolatorio e istituzionale. Negli Stati Uniti sono già partite iniziative federali per studiare percorsi di valutazione e autorizzazione di strumenti digitali basati su LLM, specialmente in ambiti cronici come lo scompenso cardiaco. Il programma ADVOCATE, promosso da ARPA-H, immagina sistemi agentici capaci di assistere in modo continuativo pazienti complessi, con una supervisione di sicurezza dedicata. Ciò indica che non siamo più nel campo della semplice curiosità tecnologica: siamo entrati in una fase in cui l’IA conversazionale in sanità comincia a essere pensata come componente reale dell’ecosistema clinico.
Commento critico L’articolo è molto ben costruito perché evita sia l’entusiasmo ingenuo sia il rifiuto pregiudiziale. Il suo merito principale è mostrare che la domanda corretta non è: “l’IA sa abbastanza medicina?”; la domanda vera è: “l’IA funziona in modo sicuro dentro la comunicazione reale con un paziente reale?” E qui la risposta, almeno oggi, è ancora dubbia. Il paziente non presenta mai il caso come una vignetta ben scritta da un medico: omette dettagli, interpreta male i sintomi, seleziona in modo casuale i dati da caricare, a volte cerca soprattutto rassicurazione. In questo contesto, anche un modello molto istruito può produrre errori clinicamente pericolosi. A nostro giudizio, il punto più importante dell’articolo è proprio questo: i chatbot sanitari, allo stato attuale, sembrano più adatti a migliorare comprensione, e preparazione al colloquio clinico che non a sostituire il ragionamento medico, soprattutto quando sono in gioco triage, diagnosi differenziale o decisioni urgenti. In altri termini, sono promettenti come strumenti di alfabetizzazione sanitaria, meno come strumenti decisionali autonomi. Vi è poi un altro aspetto, forse ancora più delicato: l’articolo parla molto di accuratezza e privacy, ma sullo sfondo resta il problema del rapporto fiduciario. Il medico non offre solo informazione: valuta il contesto, coglie incongruenze, percepisce gravità, responsabilità, vulnerabilità psicologica, e adatta il consiglio alla persona concreta. Questa dimensione relazionale e prudenziale non è ancora riproducibile da un chatbot. Per questo la formula più convincente resta quella suggerita nell’articolo stesso: IA come estensione del clinico, non come rimpiazzo del clinico.
In conclusione, il messaggio del JAMA è equilibrato e, a nostro avviso, molto realistico: gli strumenti di IA per i pazienti sono utili e diventeranno sempre più importanti, ma oggi danno il meglio quando semplificano, traducono, organizzano e preparano, non quando pretendono di decidere da soli. La loro maturità clinica non dipenderà soltanto dalla potenza del modello, ma dalla qualità del contesto, delle fonti, della regolazione e soprattutto dell’integrazione con la responsabilità medica umana.
Riccardo De Gobbi e Giampaolo Collecchia
Bibliografia 1) G. Collecchia et Al.: ChatGPT Health: svolta epocale nella sanità digitale o rischio sistemico? http://pillole.org/public/aspnuke/admin_news.asp?id=8923&do=view 2)Rita Rubin : Are AI Tools Ready to Answer Patients’ Questions About Their Medical Care? Jama: Published Online: March 6, 2026. doi:10.1001/jama.2026.1122[/b]
|