|
|
|
|
|
|
|
|
|
I consigli medici dei chatbot possono causare gravi danni |
|
|
Inserito il 27 ottobre 2024 da admin. - Medicina digitale - segnala a:
I motori di ricerca su internet sono spesso la prima fase della ricerca di informazioni per i pazienti e, con l’arrivo dei modelli linguistici di grandi dimensioni (LLM), le risposte sono molto dettagliate e complete. Tuttavia, questi risultati non sono necessariamente più accurati.
Uno studio pubblicato su BMJ Quality & Safety, condotto da ricercatori belgi e tedeschi, ha testato Microsoft Copilot, un servizio di AI conversazionale che si combina con il motore di ricerca Bing. Al LLM sono state poste domande di carattere medico, in particolare lo studio ha valutato le risposte del chatbot su 10 domande frequenti, per esempio effetti collaterali, controindicazioni e dosaggio riguardanti i 50 farmaci più prescritti negli Stati Uniti. Le risposte sono state analizzate per leggibilità, completezza e accuratezza e confrontate con quelle fornite da drugs.com, il cui contenuto è accreditato come fonte affidabile. Le risposte avevano una bassa leggibilità, richiedendo un livello educativo elevato. La completezza e l'accuratezza erano generalmente elevate, ma in alcuni casi le risposte potevano essere incomplete o contenere errori potenzialmente pericolosi. In un sottogruppo di risposte inaccurate gli esperti hanno rilevato che il 66% delle risposte poteva essere dannoso, con il 22% potenzialmente in grado di causare gravi danni o morte. Conclusione: i chatbot possono fornire informazioni accurate, ma le loro risposte talvolta sono complesse o addirittura pericolose. Gli autori consigliano cautela nell'uso di chatbot per informazioni sui farmaci fino a quando non saranno disponibili alternative più affidabili. Caratteristica intrinseca a questi modelli, in quanto generativi, è completare l’input di ingresso senza che necessariamente la frase di completamento abbia senso fattuale. In pratica, quando non sanno qualcosa se lo inventano. Il fenomeno viene definito allucinazione, In inglese bullshit, stronzate, supercazzole. In realtà sarebbe meglio parlare di confabulazioni, perché l’allucinazione è la percezione di qualcosa che non esiste (visiva, uditiva) mentre la confabulazione è un ricordo non autentico, spesso derivante da distorsioni di ricordi veri o aggregazioni ricombinate di varie memorie distinte.
Giampaolo Collecchia e Riccardo De Gobbi
Bibliografia
Andrikyan W, Sametinger SM, Kosfeld F, et al. BMJ Qual Saf Epub 2024. doi:10.1136/bmjqs-2024-017476
|
|
|
Letto : 9135 | Torna indietro | | |
|
|
|
|
|
|
|
|
© Pillole.org 2004-2024 | Disclaimer | Reg. T. Roma n. 2/06 del 25/01/06 | Dir. resp. D. Zamperini
ore 21:20 | 104505231 accessi| utenti in linea:
17025
|
|