Vai a Pillole.org
Il medico deve usare l'Intelligenza Artificiale? Si, ma con alcune avvertenze

Categoria : Medicina digitale
Data : 22 gennaio 2026
Autore : admin

Intestazione :

Un editoriale pubblicato su BMJ Evidence Based Medicine esplora i rischi dell'uso dell'Intelligenza Artificiale (IA) da parte dei medici.



Testo :

L’intelligenza artificiale ha trasformato molteplici aspetti della pratica clinica, dalla diagnostica per immagini alla gestione delle cartelle cliniche. Tuttavia, come evidenziato da un recente editoriale [1], l’uso acritico e la dipendenza eccessiva dalla IA rischiano di compromettere il pensiero clinico, la formazione e la sicurezza del paziente — soprattutto tra i medici in formazione.


I rischi principali dell’uso non critico dell’IA

* Deskilling e perdita di competenze diagnostiche
L’editoriale evidenzia che studenti e giovani clinici possono gradualmente delegare ragionamento e raccolta delle informazioni ai modelli generativi, riducendo così l’acquisizione di pattern recognition, ragionamento diagnostico e capacità di formulare diagnosi differenziali senza guida esterna. Insomma, la dipendenza da sistemi di supporto decisionale può portare a una ridotta capacità di prendere decisioni autonome e sicure. Questo pericolo è meno presente nei medici più anziani e con maggiore esperienza che si sono formati con modalità "vecchio stampo = analogiche".

* Automation bias e accettazione passiva delle risposte
Una delle maggiori criticità è l’automation bias, vale a dire la tendenza a fidarsi sempre delle raccomandazioni digitali anche quando sono errate.

* Bias algoritmico e disparità nei risultati clinici
Gli algoritmi possono riflettere e amplificare bias presenti nei dati presenti in letteratura, con implicazioni sulla qualità delle cure per gruppi demografici specifici (es. genere o etnia). Questo bias può portare, ad esempio, a risultati distorti e sottovalutazione dei sintomi in gruppi minoritari.

* Allucinazioni
L’IA può generare delle vere e proprie "allucinazioni" (risposte non basate su prove reali e suggerimenti sbagliati: resta quindi cruciale che il medico adotti una supervisione critica. Inoltre, l’attribuzione della responsabilità quando l’IA influenza la decisione clinica è tutt’ora un terreno giuridico incerto.


Implicazioni pratiche

La dipendenza dagli strumenti di IA può ostacolare lo sviluppo delle competenze cognitive e cliniche fondamentali. Gli studenti e i medici in formazione che si affidano troppo alle risposte fornite dall’IA rischiano di non far propri l'atteggiamento critico e dubitativo che è invece una competenza fondamentale in medicina, scienza per definizione non esatta.
Come difendersi da questi pericoli?
Anzitutto è necessario, prima di consultare l’IA, abituarsi a formulare autonomamente diagnosi e piani terapeutici. In altre parole, usare l’IA come seconda opinione, non come fonte primaria unica
e valutare le ragioni per accettare o rifiutare un suggerimento generato dall’IA.
In secondo luogo bisogna integrare la formazione clinica con esercizi di pensiero critico. Per esempio di possono prevedere esercitazioni con casi clinici in cui le risposte AI sono volutamente errate per allenare gli studenti a identificarle. Aiutare studenti e medici a valutare e spiegare perchè si accetta o si rifiuta o si modifica una raccomandazione automatica.
Una terza strategia è quella di rafforzare l’alfabetizzazione digitale e la comprensione dei limiti tecnologici della IA con corsi di educazione continua.
Infine, ultimo ma forse piè importante: proteggere il rapporto medico-paziente. Anche se l’IA può ottimizzare diagnosi e burocrazia, non sostituisce l’empatia, la comunicazione e la negoziazione delle decisioni condivise, che sono pilastri della cura di qualità.

Insomma, l’intelligenza artificiale può arricchire la medicina — ma solo se utilizzata con consapevolezza e giudizio critico. Il rischio principale non è l’IA in sé, ma la sostituzione del pensiero umano con risultati algoritmici senza verifica. Formatori, medici e istituzioni hanno la responsabilità di creare un ambiente in cui l’IA potenzi — e non eroda — la competenza clinica.


Renato Rossi


Bibliografia

1. Hough J, Culley N, Erganian C, Alahdab F. Potential risks of GenAI on medical education. BMJ Evid Based Med. 2025 Dec 1;30(6):406-408. doi: 10.1136/bmjebm-2025-114339. PMID: 41326281.



STAMPACHIUDI
info@pillole.org | Pillole.org
© Pillole.org 2026 Pillole Reg. T. di Roma 2/06
stampato il 22/01/2026 alle ore 10:47:43