Ventitré raccomandazioni per pazienti, medici e istituzioni, con l’obiettivo di garantire innovazione, sicurezza e responsabilità clinica
L’intelligenza artificiale entra sempre più nel cuore della medicina, e l’oncologia non fa eccezione. Strumenti come ChatGPT e altri Large Language Models (Llm) vengono ormai utilizzati da pazienti e professionisti per informarsi, supportare decisioni cliniche o gestire la documentazione sanitaria. Ma insieme alle opportunità emergono anche rischi e incertezze, che richiedono regole chiare e una governance attenta. A colmare questo vuoto arriva oggi Elcap, il primo documento di linee guida sull’uso sicuro dei Llm nella pratica oncologica, elaborato dalla Società europea di oncologia medica (Esmo) e presentato al congresso Esmo in corso a Berlino, che ha riunito oltre 35mila specialisti da tutto il mondo. Le raccomandazioni – ventitré in totale – sono state pubblicate su Annals of Oncology e si rivolgono a tre diversi destinatari: pazienti, medici e istituzioni. “La priorità di Esmo è garantire che l’innovazione si traduca in benefici misurabili per i pazienti e soluzioni praticabili per i medici – spiega Fabrice André, presidente di Esmo -. Con Elcap forniamo un quadro pragmatico per l’oncologia che abbraccia l’IA, garantendo al contempo responsabilità clinica, trasparenza e una solida protezione dei dati”.
Le linee guida distinguono tre categorie di applicazione
La prima riguarda i chatbot per i pazienti, pensati per fornire informazioni o supporto nella gestione dei sintomi: strumenti che, si legge nel documento, “devono integrare e non sostituire l’assistenza clinica, operando all’interno di percorsi supervisionati e protetti da solide misure di tutela dei dati”. La seconda categoria comprende gli strumenti per i professionisti sanitari – dai sistemi di supporto decisionale alla documentazione clinica e alla traduzione – che richiedono “una convalida formale, limitazioni trasparenti e un’esplicita responsabilità umana per ogni decisione clinica”. Infine, la terza categoria fa riferimento ai sistemi istituzionali integrati con le cartelle cliniche elettroniche, utilizzati per attività di estrazione dati, riepilogo automatizzato o matching con studi clinici. In questo caso, Esmo raccomanda test accurati, monitoraggio continuo delle prestazioni e rivalidazione in caso di modifiche dei processi o delle fonti di dati.
Modelli “assistivi” e “autonomi”
“Elcap riconosce che il valore dei modelli linguistici dipende da chi li utilizza – osserva Miriam Koopman, presidente della Esmo Real World Data & Digital Health Task Force -. Abbiamo definito aspettative specifiche per ciascun contesto: percorsi supervisionati per i pazienti, strumenti convalidati e trasparenti per i medici, sistemi costantemente monitorati per le istituzioni”. Al centro del documento vi è la distinzione tra modelli “assistivi” e “autonomi”. I primi operano sotto supervisione umana, supportando il medico nell’elaborazione di contenuti o informazioni; i secondi, invece, possono avviare azioni indipendenti, e pongono sfide più complesse in termini di sicurezza ed etica. “I modelli assistivi sono progettati per migliorare, e non sostituire, il flusso di lavoro clinico – sottolinea Jakob Kather, vicepresidente della task force Esmo -. Ma la rapida evoluzione dei sistemi autonomi richiederà presto linee guida dedicate, per affrontare le implicazioni normative e di sicurezza”. Nell’uso quotidiano, avverte Esmo, l’affidabilità dei risultati dipende dalla qualità dei dati in ingresso: lacune nella documentazione clinica o domande incomplete da parte dei pazienti possono generare risposte imprecise o fuorvianti. In definitiva, conclude Fabrice André, “l’uso responsabile dell’IA in oncologia richiede standard condivisi tanto quanto algoritmi. Con Elcap vogliamo definire come implementare i modelli linguistici per migliorare la qualità, l’equità e l’efficienza dell’assistenza, senza compromettere la fiducia nel giudizio clinico”.