Le immagini radiografiche generate dall’intelligenza artificiale sono sempre più realistiche e difficili da distinguere da quelle autentiche: anche radiologi esperti e modelli avanzati di AI possono essere tratti in inganno
Nell’era dei deepfake, contenuti falsi ma estremamente realistici, non sono più solo video e immagini sui social a poter essere manipolati. Anche le radiografie possono essere generate artificialmente con un livello di realismo tale da ingannare persino gli specialisti più esperti. Una prospettiva che fino a poco tempo fa sembrava remota e che oggi, invece, entra a pieno titolo tra le criticità emergenti della medicina digitale. A mettere in luce il problema è uno studio, pubblicato su Radiology, condotto da Mickael Tordjman della Icahn School of Medicine al Mount Sinai di New York, che ha valutato la capacità di radiologi e modelli di intelligenza artificiale di distinguere immagini autentiche da radiografie generate con sistemi di AI.
Lo studio: radiologi e AI messi alla prova
La ricerca, uno studio retrospettivo di accuratezza diagnostica, ha coinvolto 17 radiologi provenienti da sei Paesi, con livelli di esperienza molto diversi, da zero a quarant’anni di attività. Nella prima fase, i partecipanti – ignari dello scopo dello studio – hanno analizzato 154 radiografie di diverse regioni anatomiche, metà reali e metà generate con modelli di intelligenza artificiale. Solo il 41% è riuscito a identificare spontaneamente la presenza di immagini sintetiche. Nella fase successiva, una volta informati della presenza di deepfake, l’accuratezza media nel distinguere le immagini è salita al 75%. Un miglioramento significativo, ma non sufficiente a eliminare il rischio di errore. Parallelamente, lo stesso compito è stato affidato anche a quattro modelli multimodali di AI – tra cui GPT-4o e GPT-5 – con risultati variabili: nessuno è riuscito a riconoscere tutte le immagini sintetiche.
Deepfake sempre più sofisticati
Un ulteriore test ha riguardato 110 radiografie del torace, generate anche con un modello open source sviluppato da ricercatori di Stanford. Anche in questo caso, le prestazioni sono rimaste lontane dalla perfezione: i radiologi hanno raggiunto un’accuratezza compresa tra il 62% e il 78%, mentre i modelli di intelligenza artificiale si sono attestati tra il 52% e l’89%. A rendere le immagini sintetiche così difficili da individuare sono caratteristiche apparentemente “perfette”: simmetrie troppo marcate, texture dei tessuti poco naturali, ossa eccessivamente lisce. Dettagli sottili, che possono facilmente sfuggire anche a un occhio esperto.
Nessun vantaggio dall’esperienza
Un dato particolarmente rilevante riguarda l’assenza di correlazione tra anni di esperienza e capacità di riconoscere i deepfake. In altre parole, essere un radiologo senior non mette al riparo dal rischio di errore. Un’eccezione emerge per gli specialisti in patologie muscoloscheletriche, che mostrano una maggiore accuratezza rispetto ad altri sottospecialisti, probabilmente grazie a una maggiore familiarità con i dettagli anatomici più complessi.
I rischi: dalla diagnosi alla sicurezza informatica
Le implicazioni sono tutt’altro che teoriche. Come sottolinea Tordjman, radiografie false ma realistiche potrebbero essere utilizzate in contesti fraudolenti, ad esempio per simulare patologie inesistenti. Ma il rischio riguarda anche la sicurezza informatica: l’eventuale inserimento di immagini sintetiche nei sistemi ospedalieri potrebbe compromettere diagnosi, percorsi di cura e affidabilità delle cartelle cliniche. “Queste immagini sono sufficientemente realistiche da ingannare anche quando si è consapevoli della loro presenza”, evidenzia il ricercatore, sottolineando la vulnerabilità del sistema.
Formazione e nuove difese digitali
Di fronte a questo scenario, la risposta non può che essere duplice: tecnologica e formativa. Tra le soluzioni proposte figurano l’introduzione di filigrane digitali invisibili e firme crittografiche integrate nelle immagini, in grado di certificarne l’autenticità. Ma sarà altrettanto importante formare i professionisti sanitari a riconoscere i segnali, spesso sottili, che distinguono un’immagine reale da una generata artificialmente. Non a caso, gli autori dello studio hanno già messo a disposizione dataset dedicati e strumenti didattici per allenare l’occhio clinico.
Uno scenario destinato a evolvere
“Probabilmente siamo solo all’inizio”, avverte Tordjman. Il passo successivo potrebbe essere la diffusione di immagini tridimensionali sintetiche, come TAC e risonanze magnetiche, ancora più difficili da identificare. In un contesto in cui l’intelligenza artificiale entra sempre più nei processi clinici, la sfida sarà mantenere alta l’affidabilità degli strumenti diagnostici, senza rinunciare ai benefici dell’innovazione. Perché, se il confine tra reale e artificiale si fa sempre più sottile, la capacità di riconoscerlo diventa una competenza cruciale per la medicina del futuro.
Iscriviti alla Newsletter di Sanità Informazione per rimanere sempre aggiornato