La nuova sezione di ChatGPT integra dati clinici e app di benessere. Per i medici italiani l’IA può supportare il paziente, ma la diagnosi resta un atto umano e professionale.
OpenAI ha annunciato il lancio di ChatGPT Salute, una nuova sezione dedicata esclusivamente alle conversazioni su salute e benessere, integrata all’interno di ChatGPT. La novità principale è la possibilità, per gli utenti, di collegare in modo sicuro le cartelle cliniche elettroniche e diverse app di wellness. L’obiettivo dichiarato è offrire risposte più pertinenti e contestualizzate, capaci di aiutare le persone a interpretare esami clinici, prepararsi alle visite mediche e comprendere l’evoluzione del proprio stato di salute nel tempo.
Secondo i dati forniti da OpenAI, la salute è già oggi uno degli ambiti di utilizzo più frequenti del chatbot: ogni settimana oltre 230 milioni di persone nel mondo pongono domande su salute e benessere, utilizzando ChatGPT come primo filtro informativo. ChatGPT Salute nasce proprio per rispondere a questo uso, superando la dimensione delle risposte generiche e puntando su un’interazione basata sul contesto personale dell’utente. Al momento il servizio è disponibile solo negli Stati Uniti, con un accesso iniziale su lista d’attesa e integrazioni limitate, ma OpenAI ha già annunciato un’estensione graduale nelle prossime settimane. In Italia e nell’Unione Europea, per ora, la funzione non è dunque utilizzabile.
Come funziona ChatGPT Salute
OpenAI descrive ChatGPT Salute come “un’esperienza dedicata che integra in modo sicuro le informazioni sanitarie con l’intelligenza di ChatGPT, per aiutare a sentirsi più informati, preparati e sicuri nella gestione della propria salute”. ChatGPT Salute consente di collegare cartelle cliniche elettroniche e app di benessere “così da basare le conversazioni sulle informazioni sanitarie personali e ottenere risposte più mirate e utili”. In questo modo l’intelligenza artificiale può aiutare a comprendere risultati di esami recenti, preparare domande per un appuntamento medico, ricevere indicazioni su alimentazione e attività fisica o valutare diverse opzioni assicurative. OpenAI sottolinea però con chiarezza che il sistema “è progettato per supportare l’assistenza medica, non per sostituirla” e che “non è destinato né alla diagnosi né al trattamento”, ma piuttosto a orientare l’utente e a migliorare la qualità delle conversazioni con i professionisti sanitari.
Uno degli aspetti centrali di ChatGPT Salute riguarda la gestione della privacy. OpenAI spiega che “ChatGPT Salute funziona come uno spazio separato con tutele della privacy avanzate per la protezione dei dati sensibili”. Le conversazioni, i file e le app collegate alla salute vengono archiviati in un’area distinta dalle altre chat, con memorie dedicate e meccanismi di isolamento che impediscono la contaminazione con il resto dell’esperienza ChatGPT.
Un sistema sviluppato con i medici, non contro i medici
Un altro elemento chiave di ChatGPT Salute è il coinvolgimento diretto dei professionisti sanitari nello sviluppo del sistema. OpenAI dichiara di aver collaborato, nell’arco di due anni, con oltre 260 medici in 60 Paesi, appartenenti a decine di specialità diverse. Questo gruppo ha fornito feedback più di 600.000 volte, contribuendo a definire non solo cosa il sistema può fare, ma anche come deve rispondere in situazioni delicate.
Questo approccio è integrato nel modello attraverso HealthBench, un framework di valutazione che utilizza rubriche sviluppate da medici per misurare la qualità delle risposte secondo criteri clinici reali: sicurezza, chiarezza, corretta escalation delle cure e rispetto del contesto individuale. L’obiettivo è garantire un supporto affidabile nelle attività quotidiane più richieste dagli utenti, come spiegare esami in linguaggio accessibile, interpretare dati di dispositivi indossabili o preparare una visita medica. Il messaggio resta chiaro: ChatGPT Salute è pensato per affiancare, non per sostituire, i professionisti sanitari.
Monaco (FNOMCeO): “IA strumento di supporto e non sostitutivo del medico”
Su questo punto si innesta la riflessione di Roberto Monaco, Segretario della Federazione Nazionale degli Ordini dei Medici Chirurghi e Odontoiatri, che nell’intervista ribadisce una linea di cautela netta. “L’intelligenza artificiale deve essere considerata uno strumento di supporto e non un sostituto del medico, al quale resta sempre la piena responsabilità decisionale”, afferma Monaco, sottolineando come la tecnologia non possa prendere il posto del giudizio clinico umano. Per il Segretario FNOMCeO, infatti, “la diagnosi non è un semplice processo automatico basato su segni e sintomi, ma il risultato di un ragionamento clinico complesso, fondato su anni di studio ed esperienza”.
Monaco evidenzia anche il ruolo centrale della relazione medico-paziente: “Il tempo di cura, l’ascolto e l’interazione permettono di comprendere il quadro clinico nella sua completezza”. Monaco spiega che fare diagnosi significa anche escludere, attraverso la diagnosi differenziale, perché gli stessi sintomi possono rimandare a patologie diverse. “L’intelligenza artificiale – conclude – può essere un valido aiuto, ma resta priva di intelligenza emotiva e non può sostituire il rapporto umano; per questo è fondamentale anche la certificazione dei dati utilizzati, che devono essere scientificamente validi e affidabili.
Gulino (CNOP): “Educazione digitale, consapevolezza e responsabilità nell’uso dell’IA”
Nel commentare l’introduzione di strumenti come ChatGPT Salute, Maria Antonietta Gulino, Presidente del Consiglio Nazionale dell’Ordine degli Psicologi, ribadisce una posizione improntata all’equilibrio tra opportunità e rischi. “L’arrivo di strumenti come ChatGPT Salute può rappresentare un’opportunità per aumentare la consapevolezza nella cura della propria salute, ma anche un rischio sul versante dipendenza e auto-diagnosi”, afferma, sottolineando come l’accesso alle informazioni sanitarie sia oggi sempre più ampio. Nel tempo della connessione contemporanea, osserva Gulino, essere informati sulla propria salute è diventato “un diritto sempre più accessibile” e l’intelligenza artificiale può svolgere un ruolo positivo, “se usata in modo critico e non esclusivo”.
Accanto a queste potenzialità, la Presidente del CNOP richiama l’attenzione sui pericoli di un uso improprio: l’utilizzo costante e acritico di ChatGPT può generare forme di dipendenza dall’IA e ridurre la capacità di prendere decisioni autonome, soprattutto quando basate su informazioni errate o incomplete. Il rischio di auto-diagnosi sbagliate o di trattamenti inappropriati, spiega, è frequente e può incidere negativamente anche sulla fiducia nei confronti degli operatori sanitari.
“ChatGPT Salute è uno strumento utile per la propria salute e per comprendere la propria situazione sanitaria, se formuliamo domande opportune, ma non può sostituire in alcun modo la competenza e l’etica deontologica del professionista sanitario”. In questa prospettiva, conclude Gulino, “è necessario un generale ripensamento sui temi dell’Intelligenza Artificiale anche rispetto alle misure di sicurezza per la protezione dei dati sanitari, a tutela della persona, della sua salute e del diritto alla privacy”, aggiungendo che “l’educazione all’uso del digitale a partire dalla scuola è oggi più che mai necessaria soprattutto per il mondo dei giovani”.
Iscriviti alla Newsletter di Sanità Informazione per rimanere sempre aggiornato