| |
|
|
 |
Come usare la IA in medicina: preziosi suggerimenti dal NEJM |
 |
 |
Inserito il 21 dicembre 2025 da admin. - Medicina digitale - segnala a:
Un recente articolo affronta il problema di come guidare e supervisionare l’uso dell’Intelligenza Artificiale da parte di studenti e medici in formazione
Gli autori iniziano definendo i concetti di deskilling, never-skilling e mis-skilling [1]. Per deskilling si intende la perdita progressiva di competenze che il discente aveva iniziato a sviluppare: ad esempio, un giovane medico che si affida sempre al referto automatico dell’ECG può, nel tempo, perdere la propria abilità di interpretarlo da solo [2]. Never-skilling indica competenze che non nascono mai, perché sin dall’inizio il lavoro viene delegato alla macchina: lo studente usa l’IA per fare diagnosi, scrivere appunti o preparare casi, senza mai esercitare veramente il proprio ragionamento clinico. Mis-skilling descrive invece l’apprendimento di schemi errati, quando l’IA è imprecisa o distorta e il discente interiorizza inconsapevolmente quei bias. Alla base di questi fenomeni c’è il cognitive off-loading: l’abitudine a “scaricare” su strumenti esterni funzioni mentali come memoria, calcolo, analisi dei dati, decisione. L’off-loading non è di per sé negativo: può ridurre il carico sulla memoria di lavoro, aumentare l’efficienza, liberare tempo per compiti complessi. Ma, se diventa sistematico e non viene gestito criticamente, genera quello che gli autori chiamano debito cognitivo: un vantaggio immediato in termini di comodità e velocità, pagato nel tempo con una riduzione dell’impegno mentale, dell’approfondimento e della capacità di pensare in modo autonomo. Per aiutare docenti e tutor clinici a strutturare questa supervisione, viene proposto il modello DEFT-AI. La sigla riassume una sequenza di passi: Diagnosis/Discussion/Discourse, Evidence, Feedback, Teaching e, infine, AI engagement recommendation. Nella fase di “Diagnosis/Discussion/Discourse” il tutor chiede allo studente di esplicitare il proprio ragionamento: quali diagnosi aveva in mente, che informazioni aveva considerato, come ha usato l’IA e quali prompt ha inserito. Nella fase “Evidence” si valutano le prove: sia le evidenze cliniche a favore di una certa ipotesi diagnostica, sia le evidenze a supporto dell’uso di quello specifico strumento di IA per quel compito. Segue la fase di “Feedback”, in cui l’educatore stimola l’auto-valutazione del discente, lo aiuta a riconoscere punti di forza e criticità nel modo in cui ha ingaggiato l’IA. La fase di “Teaching” è il momento in cui si consolidano apprendimenti clinici e si chiariscono i limiti, i bias e le corrette modalità d’uso dell’IA. Infine, con “AI engagement recommendation”, il tutor dà indicazioni pratiche su come e quando, in futuro, lo studente dovrebbe usare l’IA: quando è appropriato, quando servirà una supervisione più stretta, quando è meglio affidarsi prima al proprio ragionamento e solo dopo confrontarsi con la macchina. Un altro contributo dell’articolo è la distinzione tra due profili metaforici di collaborazione uomo–IA: il “centauro” e il “cyborg”. Il “centauro” rappresenta una cooperazione in cui il professionista divide i compiti con l’IA: alcune attività sono svolte dalla macchina (sintesi o riassunto di testi, analisi dati, conversazioni, stesura di bozze, prima versione di testi, documenti), altre restano chiaramente in mano all’umano (giudizio clinico, processo decisionale ultimo. In questa modalità, l’IA è principalmente uno strumento di decision support: suggerisce, offre spunti, ma il giudizio finale rimane saldamente umano. Il profilo “cyborg” descrive invece una integrazione più stretta, in cui l’utente e l’IA co-producono l’output attraverso iterazioni continue, correzioni, co-scrittura; questa modalità può essere molto efficiente per compiti ripetitivi e a basso rischio, ma se non viene regolata può favorire deskilling e dipendenza. L’idea degli autori è che il clinico debba sviluppare la capacità di passare flessibilmente dall’una all’altra modalità, in base al rischio del compito, al livello di validazione dello strumento e al proprio livello di esperienza. Su questo sfondo, l’articolo insiste sulla necessità di una vera alfabetizzazione all’IA (AI literacy) in ambito medico. Non basta saper “usare” un chatbot: occorre saper valutare la qualità del tool e dei suoi output con la stessa mentalità con cui si valutano studi e linee guida. Questo significa porsi domande come: per quale scopo è stato progettato questo modello? Con quali dati è stato addestrato? Quali sono i suoi limiti e i possibili bias? Ci sono evidenze pubblicate sulla sua accuratezza per il compito che gli sto assegnando? Parallelamente, è importante imparare a formulare prompt efficaci, espliciti e non fuorvianti, evitando domande che spingano l’IA a confermare ciò che l’utente pensa già. In molti casi, può essere utile chiedere all’IA di esplicitare il proprio “ragionamento”, in modo da poterlo discutere criticamente con il tutor.
Nelle conclusioni, gli autori propongono di sostituire la logica ingenua del “trust and go” con una prospettiva di “verify and trust”: prima si verifica la coerenza e la qualità dell’output, poi ci si può fidare entro limiti chiari, mantenendo comunque un atteggiamento vigile. Allo stesso tempo, riconoscono che non si può scaricare solo sul singolo clinico la responsabilità di controllare tutto: servono curricula formativi che includano l’IA, regole chiare per lo sviluppo e l’uso degli strumenti, procedure di validazione rigorose e un monitoraggio sistematico degli errori e degli effetti educativi dell’automazione. Solo in questo modo l’IA potrà diventare un fattore di up-skilling, capace di potenziare apprendimento e pratica clinica, invece che un motore silenzioso di deskilling.
Giampaolo Collecchia e Riccardo De Gobbi
Bibliografia
1) Raja-Elie E. Abdulnour et al. Educational Strategies for Clinical Supervision of Artificial Intelligence Use. N Engl J Med 2025;393:786-797 DOI: 10.1056/NEJMra2503232 2) http://https://www.pillole.org/public/aspnuke/news.asp?id=8843
|
 |
 |
Letto : 10 | Torna indietro | | |
|
 |
 |
 |
 |
|
|
|