Un nuovo report dell’Organizzazione mondiale della sanità analizza lo stato di adozione e regolamentazione dell’intelligenza artificiale nei sistemi sanitari europei
L’intelligenza artificiale entra sempre più spesso nella pratica clinica, supportando i professionisti sanitari nella diagnosi, nella gestione dei dati e nella comunicazione con i pazienti. Ma cresce anche il dubbio: quanto sono sicuri questi strumenti e chi risponde quando qualcosa va storto? A questa domanda prova a rispondere il nuovo report dell’Organizzazione mondiale della sanità, “Artificial intelligence is reshaping health systems: state of readiness across the WHO European region”, che fornisce il primo quadro completo sull’adozione e la regolamentazione dell’IA nei sistemi sanitari europei. La valutazione si basa su dati raccolti in 50 dei 53 Stati membri della Regione europea dell’Oms e analizza strategie nazionali, quadri giuridici ed etici, governance dei dati, preparazione della forza lavoro e adozione pratica dell’IA.
L’uso dell’IA cresce, ma le regole latitano
Secondo l’Oms, l’intelligenza artificiale sta già aiutando a individuare malattie precocemente, ridurre il carico amministrativo e rendere più efficiente il percorso di cura. Tuttavia, la diffusione di questi strumenti procede più velocemente della definizione delle necessarie tutele giuridiche, e le lacune nella governance e nella formazione sono significative. “L’IA sta già supportando i medici, ma chi è responsabile quando un sistema commette un errore o provoca un danno?”, si legge nella nota che accompagna il report. Senza chiarezza legale, avverte l’Oms, clinici e pazienti potrebbero trovarsi in difficoltà: i primi potrebbero esitare a usare gli strumenti digitali, i secondi non avrebbero percorsi chiari di ricorso.
Responsabilità e rischi clinici
Nella pratica tradizionale, l’errore medico ricade sul professionista sanitario. L’intelligenza artificiale cambia questa dinamica: prende decisioni basandosi sui dati. Se questi sono incompleti o distorti, anche le decisioni dell’IA lo saranno, con il rischio di diagnosi mancate, trattamenti errati o cure diseguali. David Novillo Ortiz, consigliere regionale Oms per dati, IA e sanità digitale, sottolinea che “senza standard legali chiari, i clinici potrebbero essere riluttanti a fare affidamento sugli strumenti di IA e i pazienti potrebbero non avere percorsi chiari di ricorso”. Il report evidenzia infatti come meno di un Paese su dieci abbia norme sulla responsabilità civile per stabilire chi risponde in caso di errore o danno provocato da un sistema di IA.
Preparazione disomogenea in Europa
Dallo studio emerge una situazione fortemente disomogenea. Solo quattro Paesi dispongono di una strategia nazionale specifica per l’IA in sanità, mentre altri sette la stanno sviluppando. Nella maggior parte dei Paesi, gli strumenti di IA vengono introdotti senza un quadro normativo chiaro e senza linee guida complete sulla governance dei dati o sulla formazione degli operatori sanitari. Oltre all’incertezza giuridica, citata da quasi nove Paesi su dieci come ostacolo principale, il report segnala che limiti finanziari e scarsa preparazione della forza lavoro rallentano l’adozione. Solo circa un quarto dei Paesi dispone di programmi di formazione in servizio, e appena un quinto include corsi pre-servizio nei curricula sanitari. Anche la governance dei dati resta un tema critico: solo il 30% dei Paesi ha linee guida per l’uso secondario dei dati sanitari e la condivisione transfrontaliera.
Il rischio di una diffusione senza tutele
La rapida adozione dell’IA in sanità senza regole adeguate può generare confusione, rallentare l’innovazione responsabile e ampliare le disuguaglianze tra sistemi sanitari. Il report evidenzia che, nonostante l’IA sia percepita come strumento per migliorare l’assistenza ai pazienti, ridurre il carico sul personale e aumentare l’efficienza, molti Paesi si scontrano con la mancanza di governance e linee guida operative. L’Oms invita i Paesi a chiarire le responsabilità, istituire meccanismi di risarcimento e garantire che i sistemi di IA siano testati in termini di sicurezza, equità ed efficacia prima dell’uso clinico, per costruire fiducia nei pazienti e negli operatori sanitari.
Iscriviti alla Newsletter di Sanità Informazione per rimanere sempre aggiornat