vai alla home introduttiva di Pillole.org
 
  Pillole 
   
 
Iscritti
Utenti: 2314
Ultimo iscritto: ValeM
Iscritti | ISCRIVITI
 
Intelligenza Artificiale: Breve Guida per non esperti Prima parte
Inserito il 17 marzo 2019 da admin. - Medicina digitale - segnala a: facebook  Stampa la Pillola  Stampa la Pillola in pdf  Informa un amico  

Conoscerla per valorizzarla ed utilizzarla, conoscerla per non esserne travolti.

Le scoperte rivoluzionarie hanno una caratteristica comune: sono regolarmente sottovalutate proprio mentre introducono, senza che i contemporanei ne siano consapevoli, mutamenti epocali.
Avvenne così in passato per la invenzione della stampa, delle macchine a vapore, dei processi di chimica industriale ed anche per la utilizzazione incontrollata della energia atomica …
E così sta avvenendo, sotto i nostri occhi distratti, per la Intelligenza Artificiale con i relativi processi di automazione: sta cambiando tutto radicalmente ed irreversibilmente e noi non solo non conosciamo le potenzialità di questo processo, ma ne ignoriamo completamente i limiti ed i pericoli.
Per questi motivi intendiamo offrire ai medici pratici ed a tutte le persone di buona volontà una breve guida redatta da “non esperti ma diligenti lettori”, per tutti coloro che si ritengono non esperti, ma interessati e forse preoccupati.

ALCUNE INFORMAZIONI ESSENZIALI

Glossario

Big data : raccolta di dati così enorme per volume, velocità e varietà, da richiedere tecnologie specifiche e complesse in grado di elaborare analisi e da cui ricavare informazioni utili
Algoritmo: procedimento di risoluzione di un determinato problema attraverso un insieme di istruzioni (dal latino medievale algoritmus o algorismus, a sua volta derivato dal nome del matematico arabo Muhammad Ibn Musa Al-Khwarizmi)
Machine learning: realizzazione di sistemi di intelligenza artificiale a supporto delle decisioni in cui buona parte della ottimizzazione dei modelli decisionali è affidata all’apprendimento automatico
Deep learning: metodica di machine learning, traducibile come apprendimento profondo, basata su reti neurali artificiali multistrato
Reti neurali artificiali: sistemi di elaborazione dell’informazione che cercano di simulare, all’interno di un sistema informatico, il funzionamento dei sistemi nervosi biologici, costituiti da un gran numero di neuroni.
Intelligenza artificiale ristretta: macchina in grado di simulare l’intelligenza umana (in grado di agire come se fosse effettivamente intelligente, simulando la mente umana
Intelligenza artificiale generale: macchina in grado di emulare e perfino superare l’intelligenza umana (effettivamente e coscientemente intelligente)
Singolarità tecnologica: idea che, ad un certo punto, le macchine saranno sufficientemente intelligenti da programmarsi e migliorarsi da sole, fino al punto da rendersi indipendenti


Il dato (non) è “dato”

Gli ostacoli per un utilizzo dell’IA nella pratica medica, potenzialmente utile anche per ovviare alla imminente carenza di professionisti e ottenere teoricamente una riduzione dei costi della sanità, sono diversi. Il primo problema è la disponibilità di dati digitali validi a disposizione degli algoritmi. Un grande volume di informazioni non corrisponde infatti automaticamente a una migliore qualità delle inferenze e delle applicazioni che da queste derivano. I dati di per sé sono inutili. Affinché possano essere realmente utili, devono essere selezionati, strutturati e interpretati [1] . Non sono pertanto le tecnologie ad essere decisive ma la capacità di estrarre valore dal loro uso. Il dato non è un’entità chiusa, “data”, ma un costrutto sociale, risultato concreto di specifiche scelte culturali, sociali, tecniche ed economiche messe in campo da individui, istituzioni o società per raccogliere, analizzare e utilizzare informazione e conoscenza.

Intelligenza artificiale e medicina

Una delle principali applicazioni pratiche del machine learning (ML) (vedi glossario) in medicina è l’interpretazione dei dati clinici, radiologici, istologici, dermatologici, in maniera più accurata e rapida che con la metodologia classica. La biologia umana è infatti talmente complessa e l’espansione delle conoscenze così rapida che nessuna intelligenza naturale può competere con l’IA in termini di velocità e capacità di elaborazione delle informazioni.
In pratica, i sistemi basati sul ML vengono “addestrati”attraverso la presentazione di enormi data sets, costituiti da milioni di immagini digitalizzate (ad esempio radiografie, fotografie, elettrocardiogrammi), già classificate sulla base di un gold standard (in genere una diagnosi definita a maggioranza da un gruppo di specialisti). Dopo questo periodo di “apprendimento supervisionato”, segue una fase in cui al modello vengono presentate immagini nuove, sempre ordinate dagli esperti, ma senza che al sistema sia mostrata la classificazione “corretta”. Viene pertanto osservata la sua capacità predittiva e l’accuratezza diagnostica autonoma rispetto ai casi già classificati correttamente. Questo processo può essere ripetuto fino a che non raggiunge livelli di accuratezza predittiva molto elevati.
Anche se la diagnostica supportata dal computer non è una novità, il cambiamento profondo risiede nello sviluppo del deep learning (DL), sistema di algoritmi in grado non di seguire regole predefinite ma di “imparare” dai dati stessi, in maniera autonoma, rilevando pattern “nascosti” tra i dati, che spesso nemmeno gli addetti ai lavori sono in grado di spiegare. In pratica, nel momento in cui un modello di deep learning predice l’indicazione ad una indagine bioptica di una lesione cutanea poiché, con elevata probabilità, si tratta di un melanoma, nessuno può stabilire sulla base di quali caratteristiche della lesione la macchina abbia elaborato questa predizione, tanto che la modalità operativa di questi sistemi è stata definita come black box, ovvero scatola nera [2] .
I sistemi di supporto decisionale basati sul DL si sono dimostrati validi in vari ambiti, in particolare nella diagnostica della retinopatia diabetica e dell’edema maculare [3] e dei tumori cutanei [4] , riportando un livello di accuratezza pari a quello di specialisti esperti.
Altre possibili applicazioni sono numerose, ad esempio gli algoritmi sono in grado di analizzare in maniera sistematica tracciati elettrocardiografici di molti giorni e identificare variazioni minime apparentemente correlate al rischio di morte improvvisa [5] .

L’applicazione della IA in contesti reali può determinare numerosi potenziali vantaggi, come la velocità di esecuzione, i costi potenzialmente ridotti, sia diretti che indiretti, la migliore accuratezza diagnostica, la maggiore efficienza clinica e operativa (“gli algoritmi non dormono”), la possibilità di accesso agli accertamenti anche a persone che non possono beneficiarne altrimenti per cause geografiche, politiche ed economiche [6].

I limiti degli algoritmi

Le grandi aspettative nei confronti dell’IA rischiano di sottovalutare i rischi relativi ad una accettazione acritica delle tecnologie correlate, in particolare dei sistemi decisionali. Ad esempio, i dati necessari all’addestramento degli algoritmi di ML per elaborare i modelli predittivi sono in genere di qualità non ottimale, perché non sottoposti a quel processo di “ripulitura” e di rielaborazione che sarebbe insostenibile nella pratica clinica quotidiana [7] e quindi possono non essere in grado di fornire risposte implementabili per decisioni e trattamenti clinici, anche perché, talvolta, potrebbero “imparare” gli errori delle intelligenze “naturali”.
Oltre che non strutturati, i dati del cosiddetto real world, ad esempio quelli delle cartelle cliniche elettroniche, non sempre sono disponibili, non lo sono ovunque e il loro valore è inoltre limitato al setting di raccolta. Gli aspetti di contesto, difficilmente esplicitabili in termini quantitativi, possono pertanto essere sottovalutati e sotto-rappresentati, basti pensare alle condizioni non ben definibili in termini di patologia, la “fragilità”, le condizioni di disagio extra-cliniche, i fattori psicologici, sociali, familiari, le condizioni di svantaggio economico o culturale, che influiscono sempre sulla gestione clinica del paziente.
Un altro limite all’attendibilità dei dati è legato all’incertezza,
variabile inevitabile in medicina, caratterizzata da ampie aree grigie di conoscenza, per il dominio incompleto del sapere disponibile ed i limiti intrinseci del sapere medico. Nel caso degli studi su nuovi test diagnostici, ad esempio, il “gold standard” di riferimento può essere multiplo e comunque sottoposto al rischio di incertezza nell’interpretazione. A seconda della scelta di quale utilizzare per l’addestramento dell’algoritmo, i livelli di accuratezza possono essere differenti. Nello studio sopra citato, sulla diagnostica della retinopatia diabetica, l’utilizzo come gold standard della OCT (tomografia ottica a coerenza di fase) al posto della decisione maggioritaria di un gruppo di oftalmologi, secondo alcuni ricercatori avrebbe potuto aumentare i pur alti livelli di accuratezza ottenuti [8].
Un’altra criticità riguarda le capacità predittive della IA in ambito prognostico. L’utilizzo dei big data presenta infatti dei limiti che dipendono dalla loro stessa natura, in quanto dati e non valori:
rischi di bias nella selezione del campione, nella raccolta e nell’interpretazione delle informazioni che vengono elaborate, in grado di minacciare la validità e la generalizzabilità delle conclusioni.
In ambito epidemiologico, ad esempio, i flussi di dati sono particolarmente utili in quanto permettono di fare una fotografia, spesso istantanea, di un certo fenomeno in un dato momento, ma non consentono di cogliere gli aspetti legati alle interazioni tra i cittadini/pazienti e il contesto, spesso di difficile rappresentazione ed espressione esplicita in termini di digitalizzazione, a causa della possibile presenza di variabili confondenti e correlazioni spurie.
È pertanto necessaria una validazione da parte di fonti epidemiologiche esterne, al fine di non giungere a inferenze causali sbagliate che potrebbero determinare una sottrazione di risorse a interventi di dimostrata efficacia [9].

Conclusioni

L’IA sta cambiando il paradigma culturale della medicina: le sue applicazioni potrebbero diventare sempre più indispensabili per fornire risposte in contesti ad elevata complessità e consentire ai medici di avere più tempo per prendere in carico i bisogni assistenziali del proprio paziente.
La IA sarà peraltro utile essenzialmente in quanto strumento complementare, come il microscopio, il fonendoscopio, l’elettrocardiografo, sviluppati nel tempo per sopperire alla limitata capacità percettiva dei medici. I sistemi di IA potranno infatti consentire di delegare alle macchine i calcoli e le operazioni sui dati, ma i medici dovranno avere campo libero per quanto riguarda l’interpretazione dei fenomeni complessi e le conseguenti possibili soluzioni.
Dovranno mantenere un ruolo di guida, supervisione e monitoraggio, utilizzando la propria intelligenza e le capacità che li rendono superiori alle macchine, in particolare l’astrazione, l’intuizione, la flessibilità e l’empatia, le cosiddette soft skills, per esercitare un approccio conservativo e costruttivamente critico, utilizzando le enormi potenzialità dell’IA, ma anche i limiti.
Ciò significa ad esempio rilevare la mancanza di studi sull’efficacia della IA in rapporto ad esiti clinici importanti, come la riduzione della morbilità/mortalità o il miglioramento della qualità di vita dei pazienti. Gli obiettivi dovrebbero comprendere anche il livello di soddisfazione, sia dei medici che dei pazienti, nel nuovo contesto relazionale di integrazione del mondo digitale con quello reale.
E’ironico che, proprio quando il tempo nella pratica clinica è sempre più limitato, è invece indispensabile una profonda riflessione sui possibili effetti della trasformazione in atto, in termini di accettazione da parte dei curanti e di tutti gli operatori, di cambiamenti di ruolo professionale, di relazione con il paziente, di indispensabili necessità formative.
Sicuramente è necessaria una sensibilizzazione di tutto il personale sanitario per iniziare un percorso di confronto, allo scopo di stabilire le strategie e le politiche nei confronti di una tecnologia che, anche se attualmente è scarsamente impiegata rispetto alle sue potenzialità, in un futuro non lontano è destinata a cambiare l’essenza della medicina.

Giampaolo Collecchia e Riccardo De Gobbi


Bibliografia

1) Obermeyer Z, Emanuel EJ. Predicting the future – big data, machine learning, and clinical medicine. New Engl J Med 2016; 375: 1216-1219
2) Rasoini R et al. Intelligenza artificiale in medicina: tra hype, incertezza e scatole nere. Toscana Medica 2017; 11:18-20
3) Gulshan V et al. Development and validation of a deep learning algorithm for detection of diabetic retinopathy in retinal fundus photographs. JAMA 2016; 316: 2402-10
4) Esteva A et al. Dermatologist-level classification of skin cancer with deep neural networks. Nature 2017; 54: 115-18
5) Syed Z et al. Computationally generated cardiac biomarkers for risk stratification after acute coronary syndrome. Sci Transl Med 2011; 3: 102ra174 DOI: 10.1126/scitranslmed.3002557
6) Obermeyer Z et al. Predicting the future: big data, machine learning, and clinical medicine. N Engl J Med 2016; 375: 1216-9
7)Cabitza et al. Potenziali conseguenze inattese dell’uso di sistemi di intelligenza artificiale oracolari in medicina. Recenti Prog Med 2017; 108: 397-401
8) Wong TY et al. Artificial intelligence with deep learning technology looks into diabetic retinopathy screening. JAMA 2016; 316: 2366-7
9) Vineis P. Big data. Big bias http://https://pensiero.it/in-primo-piano/interviste/big-data-big-biases



Letto : 52146 | Torna indietro | Stampa la Pillola | Stampa la Pillola in pdf | Converti in XML
 
© Pillole.org 2004-2024 | Disclaimer | Reg. T. Roma n. 2/06 del 25/01/06 | Dir. resp. D. Zamperini
A  A  A  | Contatti | Realizzato con ASP-Nuke 2.0.7 | Versione stampabile Versione stampabile | Informa un amico | prendi i feed e podcasting di Pillole.org
ore 11:11 | 96527224 accessi| utenti in linea: 57480