vai alla home introduttiva di Pillole.org
 
  Pillole 
   
 
Iscritti
Utenti: 2335
Ultimo iscritto: lalberghini
Iscritti | ISCRIVITI
 
L’Errore Cognitivo in Medicina: basi logiche filosofiche e scientifiche
Inserito il 26 maggio 2025 da admin. - casi_clinici - segnala a: facebook  Stampa la Pillola  Stampa la Pillola in pdf  Informa un amico  

Il medico è un viandante, perennemente in cammino sulla via della diagnosi. L'Errore è un suo compagno di strada, fastidioso ed inopportuno ma non eliminabile. Dobbiamo imparare a controllarlo per evitare che faccia troppi guai...

L’errore cognitivo in medicina è particolarmente frequente e si riduce ma non si elimina con l’aumentare della esperienza, della diligenza e della prudenza. La spiegazione di questo fenomeno è emersa negli ultimi sei decenni grazie a studi effettuati dalle neuroscienze, dalla psicologia cognitiva, dalla linguistica e dalla antropologia.
Vi proponiamo un breve excursus storico che ci fornirà gli strumenti per comprendere meglio le nostre menti ed i paradossi dei nostri processi decisionali.

Una avvincente storia di idee e di ricerche
Un primo geniale contributo venne fornito dagli studiosi del linguaggio ed in particolare da Noam Chomsky…
Noam Chomsky, ad esempio, introdusse il concetto di grammatica generativa e l’idea del dispositivo di acquisizione del linguaggio, sostenendo che i bambini nascono con strutture mentali innate per il linguaggio. Questa posizione innatista implicava che la mente umana possiede bias strutturali – predisposizioni biologiche – che guidano l’apprendimento linguistico indipendentemente dall’esperienza. In ambito linguistico ciò spiega perché, nonostante dati incompleti o ambigui, ogni bambino sviluppa regole grammaticali complesse (poverty of the stimulus). Questo stesso principio – la presenza di meccanismi interni che orientano l’interpretazione della realtà – è alla base di molti bias cognitivi: la nostra mente completa attivamente le informazioni mancanti secondo schemi predefiniti.
Jerry Fodor, altro protagonista della filosofia della mente, spinse oltre l’idea di architetture mentali innate introducendo la teoria della mente modulare. Nel suo libro The Modularity of Mind (1983) ipotizzò che i sistemi cognitivi di basso livello (percezione, linguaggio) fossero organizzati in moduli dedicati, cioè che operano in modo autonomo senza scambiare liberamente informazioni con altri sistemi. Ciò spiega, ad esempio, perché illusioni ottiche persistono anche quando sappiamo che sono ingannevoli: i moduli percettivi funzionano secondo regole proprie, non facilmente sovrascrivibili dal ragionamento. Questa visione modulare implica che il pensiero centrale (processi di alto livello come il ragionamento, la formazione di credenze e le decisioni) integri informazioni parziali provenienti da moduli separati. I bias cognitivi possono quindi essere visti come il risultato di questa architettura: errori sistematici che sorgono quando i processi intuitivi automatici (spesso frutto di moduli o euristiche evolute) influenzano il giudizio, senza che i processi centrali più lenti riescano a correggerli del tutto. In termini fodoriani, la mente umana è predisposta a certi tipi di interpretazioni (bias di sistema), che rendono alcuni errori più probabili di altri.
Daniel Dennett ha elaborato il concetto di “atteggiamento intenzionale” (intentional stance), descrivendo come tendiamo spontaneamente a trattare qualsiasi agente (persone, animali o persino oggetti inanimati) come dotato di intenzioni e scopi, per poterne predire il comportamento. Questo stratagemma cognitivo è efficace nella vita quotidiana, ma può generare errori: ad esempio l’umanizzazione di fenomeni naturali o tecnologici (si pensi a quando imprechiamo contro un computer “capriccioso”). Dennett, analizzando la coscienza, ha anche sostenuto che gran parte di ciò che crediamo di “vedere” dentro di noi è una sorta di illusione narrata dal cervello. In particolare, egli sottolinea l’inaffidabilità dell’introspezione, notando che le nostre convinzioni sul funzionamento interno della mente spesso non corrispondono ai processi reali. Ci illudiamo di conoscere le ragioni delle nostre scelte o pensieri, mentre molte cause rimangono nascoste nei meccanismi inconsci. Questa prospettiva “eterofenomenologica” di Dennett (come la definì lui stesso) rafforza l’idea che la mente sia piena di trappole cognitive: scorciatoie evolutive utili, ma che possono ingannarci sulla realtà dei nostri stati mentali e portarci a bias.
Neuroscienze cognitive:le neuroscienze hanno fornito evidenze empiriche sul substrato neurale dei bias cognitivi, integrando così le intuizioni filosofiche e psicologiche. Tecniche come la risonanza magnetica funzionale (fMRI) e l’elettrofisiologia hanno permesso di osservare il cervello in vivo durante compiti decisionali e percettivi, rivelando come emozioni e cognizione interagiscano nel generare bias. Ad esempio, uno studio sul framing effect (effetto cornice) – classico bias per cui la stessa opzione risulta più o meno attraente a seconda di come è formulata – ha mostrato che tale effetto coinvolge attivamente l’amigdala, struttura limbica legata all’emotività. Quando i partecipanti prendevano decisioni influenzate dalla “cornice” positiva o negativa di una scelta, l’amigdala era fortemente attiva, suggerendo il ruolo di un sistema emotivo automatico nel mediare il bias. Viceversa, individui meno suscettibili al framing mostrano una maggiore attivazione della corteccia prefrontale orbitomediale, implicata nel controllo cognitivo e nel pensiero razionale.

Questo risultato neuroscientifico è illuminante: indica che esiste un circuito neurale dei bias, in cui aree antiche e rapide del cervello (legate alle emozioni e alle risposte istintive) possono “prendere il sopravvento” sulle aree corticali lente e analitiche, producendo decisioni devianti dalla razionalità pura. In altri termini, sembra confermare a livello biologico la teoria dei due processi cognitivi:un Sistema 1 intuitivo, veloce ma incline a errori, e un Sistema 2 deliberativo, più accurato ma lento.

Euristiche e bias classici: Kahneman e Tversky (1974) descrissero tre euristiche fondamentali impiegate nel giudizio sotto incertezza – rappresentatività, disponibilità e ancoraggio – e mostrarono come ciascuna porti a specifici bias.

L’euristica della rappresentatività è la tendenza a giudicare la probabilità di un evento o appartenenza a una categoria in base a quanto esso appare simile o “rappresentativo” di quel modello. Ciò spiega, ad esempio, il celebre fallacia del giocatore o l’errore di congiunzione: di fronte a descrizioni dettagliate tendiamo a considerarle più probabili ( celebre la descrizione di una donna impegnata ove la affermazione“Linda è una femminista e impiegata di banca” viene percepita più plausibile di “Linda è un’impiegata di banca” violando le regole della probabilità). L’euristica di rappresentatività genera bias perché ignora informazioni statistiche di base ("base rate") e altre regole logiche, concentrandosi sulla somiglianza superficiale degli elementi.

L’euristica della disponibilità, invece, consiste nel giudicare la frequenza o probabilità di un evento in base alla facilità con cui esempi pertinenti vengono in mente. Eventi vividi, recentemente accaduti o emotivamente carichi sono più disponibili nella memoria e quindi tendiamo a sovrastimarne la probabilità. Ad esempio, dopo aver letto di un incidente aereo, una persona potrebbe sovrastimare enormemente il rischio effettivo di volare (quando in realtà gli incidenti stradali sono molto più comuni). Questa euristica spiega bias come l’effetto disponibilità nelle decisioni mediche (sovradiagnosticare malattie viste di recente) o nei giudizi di sicurezza (paure irrazionali di eventi rari ma salienti).

L’euristica dell’ancoraggio e aggiustamento indica la propensione ad ancorarsi a un valore iniziale (spesso irrilevante) e poi ad aggiustare insufficientemente il giudizio a partire da tale riferimento. Ad esempio, se si chiede a due gruppi di stimare il numero di Paesi africani all’ONU dopo aver fatto girare una ruota truccata che mostra 10 per un gruppo e 65 per l’altro, le stime medie dei due gruppi risultano sistematicamente diverse e ancorate al numero casuale fornito (Tversky & Kahneman, 1974). L’effetto di ancoraggio è potente sia in ambito numerico (stime quantitative influenzate da valori iniziali) sia in ambito decisionale: la prima impressione o informazione ricevuta anche nella vita quotidiana condiziona le valutazioni successive...
In breve, i nostri errori non sono casuali: seguiamo pattern prevedibili di deviazione dovuti al modo in cui semplifichiamo i problemi complessi.

La teoria del giudizio sociale Le relazioni sociali e professionali favoriscono particolari bias come il bias di conferma (cercare e preferire informazioni che confermano le nostre idee preesistenti) e il bias dell’ottimismo (ritenere che eventi negativi siano meno probabili per sé stessi rispetto agli altri).

Un filone importante riguarda l’eccessiva sicurezza o overconfidence: gli individui tendono sistematicamente a sovrastimare la propria capacità di prevedere gli eventi sovravalutando la precisione delle proprie conoscenze. Questo bias è tanto più diffuso quanto maggiore è la autostima, motivo per cui è tipico di cattedrattici, manager poltici ecc. Infatti vari studi dimostrano che professionisti di vari campi (finanza, medicina, ecc.) spesso si dichiarano “90% sicuri” di una stima, mentre la percentuale di esattezza reale è molto inferiore (fenomeno della confidence calibration). L’overconfidence viene considerata uno dei bias più pervasivi, in grado di esacerbare altri errori (se sono troppo sicuro del mio giudizio iniziale, sarò meno propenso a rivederlo anche di fronte a segnali contrari, rafforzando bias di ancoraggio e conferma).

Nelle decisioni collettive o di gruppo, poi, emergono dinamiche proprie: ad esempio il groupthink (pensiero di gruppo) è un bias a livello di gruppo che porta a decisioni poco ottimali perché si tende all’armonizzazione e all’eliminazione del dissenso, sottovalutando informazioni contrarie; il bias di polarizzazione di gruppo fa sì che, dopo una discussione tra persone già in parte d’accordo, le posizioni diventino ancor più estreme nella direzione iniziale condivisa. Esistono bias sociali come l’effetto carrozzone (bandwagon effect), per cui gli individui tendono a conformarsi all’opinione prevalente del gruppo (salire sul carro del vincitore), oppure l’effetto di diffusione di responsabilità (nelle decisioni collettive la responsabilità sentita da ciascuno si riduce, portando a minore impegno o a comportamenti eticamente discutibili come nel classico “effetto spettatore” di fronte alle emergenze).


Nella prossima pillola l'elenco dei più importanti e frequenti bias in medicina ed alcune indicazioni metodologiche sulle modalità per ridurli o controllarne le conseguenze...




Riccardo De Gobbi



Per approfondimenti metodologici consigliamo due volumi:


A) Rossi R.L. Collecchia G. De Gobbi R et Al.: L’errore Medico Pensiero Scientifico Edit Roma aprile 2025
http://pensiero.it/catalogo/libri/l-errore-medico


B) Collecchia G. Rossi R.L. De Gobbi R et Al.: La diagnosi ritrovata Pensiero Scientifico Edit Roma 2021
http://pensiero.it/catalogo/libri/la-diagnosi-ritrovata



















Letto : 3400 | Torna indietro | Stampa la Pillola | Stampa la Pillola in pdf | Converti in XML
 
© Pillole.org 2004-2025 | Disclaimer | Reg. T. Roma n. 2/06 del 25/01/06 | Dir. resp. D. Zamperini
A  A  A  | Contatti | Realizzato con ASP-Nuke 2.0.7 | Versione stampabile Versione stampabile | Informa un amico | prendi i feed e podcasting di Pillole.org
ore 13:43 | 109238419 accessi| utenti in linea: 36566