vai alla home introduttiva di Pillole.org
 
  Pillole 
   
 
Iscritti
Utenti: 2314
Ultimo iscritto: ValeM
Iscritti | ISCRIVITI
 
Intelligenza Artificiale: Breve Guida per non esperti-Seconda Parte-
Inserito il 31 marzo 2019 da admin. - Medicina digitale - segnala a: facebook  Stampa la Pillola  Stampa la Pillola in pdf  Informa un amico  

I Limiti della Intelligenza Artificiale nelle decisioni cliniche

” Non esiste vanità intelligente”
Celine Louis-Ferdinand: Viaggio al termine della notte


In questa pillola evidenzieremo alcuni seri limiti della Intelligenza Artificiale (IA), noti agli esperti che periodicamente ne trattano nelle più importanti riviste internazionali, pressoché sconosciuti a milioni di utilizzatori di queste tecnologie.

Un tragico ma illuminante esempio dalla storia recente: nel 1986 lo Space Shuttle si incendiò e si disintegrò due minuti dopo il lancio; dei 7 astronauti a bordo non furono recuperati neppure i resti … Era il primo gravissimo incidente dopo dieci successi ed il governo americano nominò una commissione di inchiesta nella quale tra gli esperti venne nominato Richard Feynman, grande scienziato e Premio Nobel per la fisica. Mentre larga parte dei tecnici esaminarono con accuratezza i dati dei super-computer Feynman, che ben conosceva i limiti della neonata intelligenza artificiale, studiò con attenzione i filmati redasse una serie di ipotesi che accuratamente verificò, e scoprì… che la tragedia era stata provocata dalla rottura di una guarnizione imperfetta del valore di poche decine di dollari: dalla guarnizione uscì propellente che si incendiò ed incendiò il serbatoio.
Decine di ingegneri provenienti dalla migliori università americane assistiti dai super-computer della Nasa non avevano previsto adeguate verifiche delle guarnizioni e fu solo Feynman che utilizzando il suo pensiero libero e creativo scartò decine di cervellotiche ipotesi,computer-assistite, e dimostrò una verità tanto tragica quanto banale.(1)

Da allora la intelligenza artificiale ha fatto enormi progressi ed in particolare ha effettuato un importante balzo qualitativo: grazie alla enorme velocità dei moderni computer ed alla loro capacità di imparare dagli errori, essi possono produrre in pochi minuti elaborati che le migliori menti umane non produrrebbero in una intera vita.

Tuttavia il “peccato originale” della intelligenza artificiale permane ed è forse, per nostra fortuna, ineliminabile: per quanto potentissimi e raffinatissimi i super computer possono imparare a gestire enormi quantità di informazioni, a prendere decisioni ed a correggere decisioni errate (Learning Machine)ma solo nel campo delimitato dagli algoritmi inseriti.
Questi ultimi, per quanto complessi e raffinatissimi non sono tuttavia al momento in grado di uscire dall’universo immaginato dagli uomini o dalle macchine “madri” che hanno creato gli stessi algoritmi introdotti: non sono in altre parole in grado di immaginare teorie rivoluzionarie come quelle della relatività o della fisica quantistica ma sono solo in grado di verificarle ed applicarle.

La più recente confutazione degli entusiasmi dei milioni di sostenitori della IA ci è piombata addosso con le recenti tragedie dei due aerei ultra moderni ed ipertecnologici -Boeing 737-, guidati da computer ritenuti super-intelligenti a schiantarsi al suolo con centinaia di vittime senza che i piloti potessero evitarlo in alcun modo…

I limiti dei sistemi di Intelligenza Artificiale sono stati evidenziati in particolare per i sistemi di supporto alla diagnostica e terapia: un recente articolo del Jama scritto da un esperto bio-medico ed informatico e da uno dei creatori di Watson, ovvero il poderoso sistema di intelligenza artificiale del colosso informatico IBM, ci propone preziosi riflessioni su questi delicati strumenti, sempre più estesamente utilizzati in maniera acritica sia dai comuni utenti che da molti medici.(2)

Eccone una sintesi

1) I CDSS ( Clinical Decision Support Systems) sono generalmente “ Scatole Nere”: sono in grado di imparare e di autocorreggersi e pertanto il più delle volte funzionano; tuttavia quanto più evoluti sono tanto più sfuggono ad ogni controllo, tanto da parte degli utenti che dei programmatori: divengono dei veri e propri “alieni”.
Per garantire gli utenti da possibili tragici errori, secondo gli esperti, essi dovrebbero possedere alcuni essenziali requisiti verificabili nel tempo da tutti gli utilizzatori: dovrebbero essere basati su dati scientifici condivisi dalla maggioranza degli esperti tramite sistemi di Peer- Review, dovrebbero essere utilizzabili agilmente in tempi ragionevoli, dovrebbero essere affidabili ovvero dotati di coerenza con la pratica clinica, stabili nel tempo e sistematicamente aggiornati. Nessun sistema di assistenza alla diagnosi possiede oggi tutti questi requisiti

2) La larga maggioranza dei CDSS secondo la letteratura internazionale non è al momento in grado di sostituire la mente umana nelle decisioni cliniche: i sistemi di intelligenza artificiale hanno conseguito prestazioni eccellenti in ambiti molto precisamente definibili e trattabili mediante algoritmi, quali la diagnostica delle immagini ( radiologia, elettrocardio- elettreoencefalografia, oculistica ecc). Nelle decisioni cliniche vi sono tuttavia situazioni complesse e contraddittorie ove il buon senso, l’esperienza umana e l’intuito giocano un ruolo ancora molto importante e difficilmente riducibile ad algoritmi. (3,4)

3) Il settore dove i CDSS hanno dimostrato le più vistose deficienze è la gestione dei piani terapeutici: i sistemi esperti non sono tutt'ora in grado di superare la più singolare caratteristica dei programmi terapeutici di noi umani: la nostra capacità di adattarli alle peculiarità del singolo individuo ed alla originalità del contesto in cui l'individuo vive.(2)

4) La rilevazione e la correzione degli errori è tuttavia l'aspetto più critico dei sistemi diagnostici automatici. Mentre la pratica clinica umana ha, almeno teoricamente, da tempo sviluppato approfonditi strumenti di indagine sulle proprie decisioni, iniziando anzitutto a distinguere gli “errori di sistema” dagli “errori legati ai bias cognitivi” degli operatori, la intelligenza artificiale procede per prove-errori-correzioni degli errori utilizzando la velocità e la potenza di calcolo come unica o principale risorsa a disposizione. Questo tuttavia è un livello retroattivo che corregge a posteriori ma non previene e non può garantire una riduzione sistematica dell'errore ogni condizione.La tragedia dei Boeing conferma…(2)

Utilizzare questi strumenti in maniera meccanica ed acritica è pericoloso
I clinici più esperti e più colti a livello mondiale da tempo hanno messo in evidenza alcune preoccupanti conseguenze indesiderate dell’uso meccanico ed acritico di questi strumenti(4). Anche nel nostro Paese ne sono state sottolineate le più preoccupanti (vedi anche box) :

1) In seguito ad un uso sistematico ed acritico dei sistemi intelligenti di diagnostica e terapia i medici possono sviluppare un ingiustificato ed eccessivo affidamento nelle capacità dell’automazione (over-reliance). Questa fiducia sarebbe alimentata dal convincimento che ogni nuova tecnologia sia intrinsecamente migliore di qualsiasi altra già in uso ed in particolare migliore delle prestazioni di ogni professionista coinvolto nel medesimo problema(5).

2) Vi è il rischio di sviluppare una vera e propria dipendenza (overdependence) da questi sistemi che, nel lungo periodo, potrebbe condurre alla dequalificazione
(deskilling),
ovvero alla riduzione del livello di competenza richiesto per svolgere una funzione, quando tutte o alcune delle componenti dei compiti corrispondenti siano state automatizzate(5).


3)I sistemi intelligenti di diagnostica e terapia sono alimentati da un numero finito di dati tradotti in linguaggio informatico: vi sono tuttavia elementi poco o per niente ”datificabili”, quali per esempio aspetti culturali, sociali o psicologici di un paziente, oppure aspetti organizzativi di un contesto ospedaliero, che non vengono al momento considerati da questi sistemi ma che sappiamo essere a volte molto importanti nel percorso diagnostico terapeutico. Lasciar fare ai sistemi intelligenti senza effettuare una autonoma valutazione che valorizzi tutti questi elementi può condurre a gravi errori(5).
Possibili criticità correlate all’uso dei sistemi di intelligenza artificiale in medicina

Black-boxing: imperscrutabilità degli algoritmi, definiti “oracolari”, nel senso di accurati ma non associati a spiegazioni esplicite e significative delle risposte che elaborano e forniscono
Over-reliance: rischio che i medici possano sviluppare un ingiustificato ed eccessivo affidamento nelle capacità dell’automazione, prescindendo dalla variabilità e dall’incertezza del contesto
Overdependence: vera e propria dipendenza da questi sistemi (sovra-affidamento)
Deskilling: riduzione del livello di competenza richiesto per svolgere una funzione (dequalificazione), quando tutte o alcune delle componenti dei compiti siano state automatizzate
Context-underevaluation: conferimento di maggiore importanza ai dati, facilmente esprimibili e codificabili in numeri, rispetto al contesto, di difficile rappresentazione e d esplicitazione (desensibilizzazione nei confronti del contesto clinico)
Sclerosi epistemica: circolo vizioso in cui i pattern a cui sono sensibili i sistemi di intelligenza artificiale, considerati ontologicamente attendibili, sono evidenziati e suggeriti ai medici, che diventano meno sensibili a identificarne altri, oppure gli stessi, ma autonomamente



Riflessioni di due viandanti in un questo vasto sconosciuto paese

La introduzione in ambito informatico di sistemi intelligenti, in grado di apprendere e di decidere, dischiude nuove entusiasmanti frontiere ma nel contempo muta radicalmente la relazione tra l’uomo e la tecnologia, che sta divenendo sempre più una specie aliena,anche se non ancora ostile.
E’ un dato di fatto che non sappiamo bene dove siamo, ma soprattutto non sappiamo dove stiamo andando.
La storia della nostra civiltà tuttavia può aiutarci a capire ed a scegliere: dalla invenzione della ruota alla scoperta della fisica atomica la specie umana è progredita solo quando ha tenuto sotto controllo ed utilizzato con saggezza e prudenza la tecnologia …
Allorché invece si è illusa che un libero sviluppo della tecnica avrebbe consentito grandi balzi in avanti, si è trovata a correre grandi rischi: avvenne così per la chimica, ma ancor più per la energia atomica.
La storia si sta ripetendo con la intelligenza artificiale; finché saremo noi a controllarla non potremo che averne grandi benefici; non dimentichiamo infatti che le scoperte più rivoluzionarie nella storia del pensiero umano avvennero quando i grandi scienziati si lasciarono influenzare dalla fantasia e dalle emozioni: per citare solo qualche esempio, osservando rilassato le volute di fumo della propria pipa il chimico Kekulè ebbe la intuizione originale che il benzene non avesse una struttura lineare ma ad anello ( idea per l’epoca del tutto innovativa); Einstein suonando il violino volava con la immaginazione oltre la fisica classica e Schrödinger giocando con il proprio gatto concretizzò nel famoso paradosso “del gatto”concetti rivoluzionari di fisica quantistica …

Se invece libereremo la macchine dal nostro continuo controllo e ci lasceremo guidare non dalle nostre fantasie ed emozioni ma dai loro incontrollabili algoritmi, saremo espropriati gradatamente della nostra creatività e finiremo con il seguire ipnoticamente di volta in volta il suono di un nuovo pifferaio magico …

Perché l’uomo è ancora più intelligente della migliore macchina intelligente
La più importante differenza tra le migliori “Learning Machine” e l’Uomo è la funzione “auto-riflessiva”, ovvero la “meta-cognizione”dell’Homo Sapiens.
La funzione auto-riflessiva nel pensiero occidentale risale al “Conosci Te Stesso” di Socrate ed alla logica di Aristotele ma ebbe importanti apporti migliorativi dal pensiero pragmatico di Locke e soprattutto dalla “ Critica della Ragion Pura di Kant(6).
La moderna psicologia cognitiva ha raccolto l’insegnamento di questi grandi maestri ed ha sviluppato il concetto di “Metacognizione” ovvero la capacità unicamente umana di analizzare e talora di correggere le proprie modalità di percepire e di pensare con un incessante lavoro di analisi critica ed auto-critica.(7)
Le learning machine in questo ambito sono ancora molto indietro…



Riccardo De Gobbi e Giampaolo Collecchia



Bibliografia


1) http://https://history.nasa.gov/sts51l.html


2) Shortliffe E, Sepúlveda M: Clinical Decision Support in the Era of Artificial Intelligence JAMA December 4, 2018 Volume 320, Number 21

3)Maddox T,Rumsfeld J et Al.: Questions for Artificial Intelligence in Health Care JAMA. 2019;321(1):31-32. doi:10.1001/jama.2018.18932

4)Verghese A, Thadanei Israni S : Humanizing Artificial Intelligence JAMA. 2019;321(1):29-30. doi:10.1001/jama.2018.19398

5) Cabitza F, Alderighi C et Al.: Potenziali conseguenze inattese dell’uso di sistemi di intelligenza artificiale oracolari in medicina Recenti Prog Med 2017; 108: 397-401

6) Eco Umberto, Fedriga Riccardo :Storia della Filosofia - EM Publishers srl Milano 2015

7) Galimberti Umberto: Nuovo Dizionario di Psicologia Feltrinelli Ed. Milano 2018

Letto : 47524 | Torna indietro | Stampa la Pillola | Stampa la Pillola in pdf | Converti in XML
 
© Pillole.org 2004-2024 | Disclaimer | Reg. T. Roma n. 2/06 del 25/01/06 | Dir. resp. D. Zamperini
A  A  A  | Contatti | Realizzato con ASP-Nuke 2.0.7 | Versione stampabile Versione stampabile | Informa un amico | prendi i feed e podcasting di Pillole.org
ore 09:25 | 96524195 accessi| utenti in linea: 52743