vai alla home introduttiva di Pillole.org
 
  Pillole 
   
 
Iscritti
Utenti: 2338
Ultimo iscritto: bernardinobruno
Iscritti | ISCRIVITI
 
SOS: l’intelligenza artificiale erode le capacità cognitive dei medici
Inserito il 26 ottobre 2025 da admin. - Medicina digitale - segnala a: facebook  Stampa la Pillola  Stampa la Pillola in pdf  Informa un amico  

Il rischio di deskilling, ovvero la perdita progressiva di competenze professionali a causa della delega sistematica a tecnologie automatizzate

Negli ultimi anni l’intelligenza artificiale (IA) è entrata con forza nella pratica clinica, offrendo strumenti sempre più sofisticati per supportare diagnosi, decisioni terapeutiche e attività organizzative.
Se da un lato l’IA promette efficienza, accuratezza e riduzione degli errori, dall’altro solleva un interrogativo cruciale: quale prezzo cognitivo e professionale pagano i medici quando si affidano a questi strumenti?
Questo interrogativo prende forma nel concetto di deskilling, ovvero la perdita progressiva di competenze professionali a causa della delega sistematica a tecnologie automatizzate.
Un esempio emblematico proviene da uno studio prospettico pubblicato nel 2025 su The Lancet Gastroenterology and Hepatology. Gastroenterologi abituati a lavorare con sistemi di colonscopia assistita dall’IA hanno mostrato, nel giro di soli sei mesi, una riduzione del 20% nella capacità di individuare polipi e anomalie quando tornavano a lavorare senza supporto tecnologico. Gli autori hanno osservato medici “meno motivati, meno concentrati e meno responsabili” nelle decisioni cliniche non assistite.
Parallelamente, uno studio del MIT ha documentato come studenti universitari che utilizzavano ChatGPT per la stesura di saggi sviluppassero un vero e proprio “debito cognitivo”: prestazioni peggiori a livello neurale, linguistico e comportamentale.
In entrambi i casi, educazione e pratica clinica, l’IA sembra in grado di erodere competenze quando l’esposizione è intensa e prolungata.
Un’analisi più ampia è arrivata da una recente revisione che evidenzia due fenomeni distinti:
Deskilling: perdita di abilità cliniche già acquisite, soprattutto nell’esame obiettivo, nella comunicazione con il paziente, nella costruzione della diagnosi differenziale e nel giudizio clinico complessivo.
Upskilling inhibition: riduzione delle opportunità formative, con conseguente rischio che gli studenti e i giovani medici sviluppino competenze incomplete perché troppo esposti a sistemi che “pensano al posto loro”.

Già nel 2021 Federico Cabitza sottolineava come l’introduzione massiva di tecnologie cognitive potesse avere un “lato oscuro”: riduzione dell’autonomia decisionale, perdita di manualità e soprattutto atrofia del ragionamento critico. Nel suo articolo “Deskilling, o del lato oscuro delle tecnologie cognitive in medicina” (Monitor AGENAS, 2021) proponeva di valutare l’IA non solo in termini di benefici (accuratezza, velocità, efficienza), ma anche in termini di costi non solo cognitivi ma anche professionali. Uno studio della Johns Hopkins Carey Business School (2025) ha infatti mostrato come i medici che si affidano molto all’IA vengano percepiti dai colleghi come meno competenti.
Il deskilling inoltre non riguarda solo il singolo professionista. Se competenze cruciali si indeboliscono, l’intero sistema sanitario diventa più fragile: in caso di fallimento tecnico, blackout o bias algoritmico, i team clinici rischiano di trovarsi privi delle capacità necessarie per supplire.
Gli strumenti che anticipano, suggeriscono o precompilano referti possono alterare non solo il processo decisionale, ma anche la relazione con il paziente: meno tempo speso nell’ascolto, più deferenza verso la macchina, minore chiarezza comunicativa. Il rischio più grande è che il medico perda progressivamente il senso di responsabilità, affidandosi ciecamente al sistema. L’automazione non elimina l’errore, ma lo trasforma: da errore umano individuale a errore sistemico difficile da contestare.
Per contrastare il deskilling, servono nuove strategie educative:
AI literacy come competenza di base, per comprendere limiti, bias e modalità di funzionamento degli algoritmi.
Pratica deliberata senza IA, per mantenere allenate le capacità diagnostiche fondamentali (sul modello dei piloti che si esercitano manualmente anche nell’era del pilota automatico).
Curricula dinamici, che distribuiscano i compiti tra automazione e formazione clinica, decidendo consapevolmente quali abilità devono restare patrimonio del medico.

Occorrono inoltre strategie di mitigazione:
1. Ridefinizione dei compiti
Usare l’IA senza esitazione per attività amministrative, burocratiche e ripetitive; preservare le energie cognitive per il ragionamento clinico e la relazione umana.
2. Progettazione centrata sul medico
Interfacce che stimolino la riflessione, offrano più scenari, espongano i limiti dell’algoritmo.
3. Formazione continua
Brevi corsi pratici che uniscano etica, trasparenza e consapevolezza dei bias algoritmici.
4. Audit e valutazioni periodiche
Misurare non solo l’accuratezza dell’IA, ma anche l’evoluzione delle competenze umane nei team che la adottano.

Conclusione
Il deskilling indotto dall’IA in medicina non è un destino inevitabile, ma un rischio reale e già documentato. Se progettata e introdotta in modo consapevole, l’IA può alleggerire il carico burocratico, liberare tempo per la relazione col paziente e persino stimolare nuove forme di apprendimento. Se adottata in modo acritico, rischia invece di produrre medici meno motivati, meno competenti e meno responsabili. Il futuro della professione medica non sarà quello di difendere ogni singola abilità tecnica, ma di riorientare il ruolo del medico verso il giudizio clinico, la comunicazione, l’empatia e la supervisione etica.


Giampaolo Collecchia e Riccardo De Gobbi


Bibliografia
1. Spitznagel E. Artificial Intelligence Is Eroding Doctors’ Cognitive Skills: How Bad Is It? Medscape. 29 settembre 2025. http://https://www.medscape.com/viewarticle/ai-eroding-cognitive-skills-doctors-how-bad-it-2025a1000q2k
2. Budzyń, Krzysztof et al. Endoscopist deskilling risk after exposure to artificial intelligence in colonoscopy: a multicentre, observational study The Lancet Gastroenterology and Hepatology. 2025. Volume 10, Issue 10, 896 - 903)
3. http://https://arxiv.org/abs/2506.08872
4. Natali C, Marconi A, Dias Duran J, Cabitza F. AI-induced Deskilling in Medicine: A Mixed-Method Review and Research Agenda for Healthcare and Beyond. 2025.
5. Artificial Intelligence Review (2025) 58:356 http://https://doi.org/10.1007/s10462-025-11352-1
6. Cabitza F. Deskilling, o del lato oscuro delle tecnologie cognitive in medicina. Monitor. Agenzia Nazionale per i Servizi Sanitari Regionali (AGENAS). 2021. http://https://www.agenas.gov.it/component/k2/deskilling%2C-o-del-lato-oscuro-delle-tecnologie-cognitive-in-medicina
7. Doctors who use AI are viewed negatively by their peers. Johns Hopkins Carey Business School. 2025.http:// https://carey.jhu.edu/articles/doctors-who-use-ai-are-viewed-negatively-their-peers-new-study-shows

Letto : 4 | Torna indietro | Stampa la Pillola | Stampa la Pillola in pdf | Converti in XML
 
© Pillole.org 2004-2025 | Disclaimer | Reg. T. Roma n. 2/06 del 25/01/06 | Dir. resp. D. Zamperini
A  A  A  | Contatti | Realizzato con ASP-Nuke 2.0.7 | Versione stampabile Versione stampabile | Informa un amico | prendi i feed e podcasting di Pillole.org
ore 22:39 | 112509105 accessi| utenti in linea: 46950