Salute 4 Settembre 2024 23:58

ChatGPT non è infallibile nell’interpretare le immagini radiologiche

Il modello di intelligenza artificiale ChatGPT-4 Vision è in grado di rispondere correttamente a un esame di radiologia basato sul testo, ma mostra difficoltà sull’interpretazione delle immagini. A dimostrarlo è uno studio pubblicato su Radiology
ChatGPT non è infallibile nell’interpretare le immagini radiologiche

Il modello di intelligenza artificiale ChatGPT-4 Vision è in grado di rispondere correttamente a un esame di radiologia basato sul testo, ma sembra sperimentare ancora delle difficoltà sulle domande relative all’interpretazione delle immagini. A dimostrarlo uno studio, pubblicato sulla rivista Radiology, condotto dagli scienziati della Henry Ford Health a Detroit. Il team, guidato dallo scienziato Chad Klochko, ha valutato le prestazioni del modello di intelligenza artificiale Chat GPT-4 Vision, la prima versione di grandi dimensioni in grado di elaborare sia testo che immagini.

ChatGPT messo alla prova con gli esami di formazione in radiologia diagnostica

“L’algoritmo Chat GPT-4 – afferma Klochko – si è rivelato molto promettente come assistente alla semplificazione dei referti radiologici e nell’interpretazione del protocollo appropriato ai diversi esami di imaging. Vision consente nuove potenziali applicazioni in radiologia”. Nell’ambito dell’indagine, i ricercatori hanno testato il modello sulla base delle domande poste durante gli esami di formazione in radiologia diagnostica dell’American College of Radiology, una serie di test utilizzati per valutare i progressi degli studenti. In totale, sono state considerate 377 domande in 13 domini, tra cui 195 domande solo di testo e 182 che contenevano un’immagine da interpretare. GPT-4 Vision ha risposto correttamente a 246 delle 377 domande, ottenendo un punteggio complessivo del 65,35.

ChatGPT promosso nei quiz di testo e molto meno con le immagini

Nello specifico, l’intelligenza artificiale ha riconosciuto la risposta corretta nell’81,5% delle domande di testo e nel 47,8% dei quiz con immagini. 120 domande sono state lasciate in bianco. “L’accuratezza nei quesiti basasti sul testo – riporta Klochko – rispecchia le prestazioni del modello precedente. Questa coerenza nelle domande basate su testo potrebbe suggerire che il modello ha un certo grado di comprensione testuale in radiologia. Il nostro lavoro evidenzia le materie specifiche in cui l’algoritmo era più e meno affidabile. Durante le esplorazioni iniziali del modello non avevamo mai riscontrato il rifiuto di rispondere a una domanda. Abbiamo inoltre notato una tendenza allarmante del modello a fornire diagnosi corrette basate su interpretazioni errate delle immagini, il che potrebbe avere implicazioni cliniche significative”.

Necessari metodi di valutazione degli algoritmi più rigorosi

“Questi risultati – conclude Klochko – evidenziano la necessità di individuare metodi di valutazione più specializzati e rigorosi per testare le prestazioni di modelli linguistici di grandi dimensioni nelle attività di radiologia. Date le attuali sfide nell’interpretazione accurata delle immagini radiologiche chiave e la tendenza alle risposte allucinatorie, l’applicabilità di GPT-4 Vision in campi critici per l’informazione come la radiologia è limitata nel suo stato attuale”

 

Iscriviti alla Newsletter di Sanità Informazione per rimanere sempre aggiornato

GLI ARTICOLI PIU’ LETTI
Advocacy e Associazioni

SaniRare. La sfida manageriale per migliorare l’assistenza ai malati rari e la sostenibilità del sistema

La gestione delle malattie rare e anche complesse richiede un modello assistenziale integrato, capace di unire risorse specialistiche, assistenza territoriale e strumenti innovativi per garantire cont...
di Lucia Conti
Sanità

Legge Caregiver, Locatelli: “Chi ama e cura non vuole essere sostituito, ma accompagnato”

Dopo oltre 15 anni di attesa, arriva il disegno di legge che riconosce tutele, diritti e dignità a chi si prende cura ogni giorno di una persona non autosufficiente. La ministra Locatelli a San...
di Isabella Faggiano
Salute

L’uso prolungato di melatonina può far male al cuore

L'uso prolungato di integratori a base di melatonina  potrebbe comportare un rischio più elevato di diagnosi di insufficienza cardiaca, ricovero ospedaliero connesso e morte per qualsiasi ...
di Valentina Arcovio
Sanità

GIMBE: Nonostante gli aumenti, il Fondo sanitario scende al 5,9% del PIL

Aggiunti alla sanità € 2,4 miliardi nel 2026 e € 2,65 miliardi nel 2027 e nel 2028. Nel 2028 il fondo sanitario arriverà a € 145 miliardi e secondo l'analisi indipendente ...
di Redazione