Una ricerca accademica individua 15 rischi etici nei modelli IA usati per consulenza psicologica, inclusi errori nella gestione delle crisi ed empatia solo simulata.
Negli ultimi anni milioni di persone hanno iniziato a rivolgersi a chatbot come ChatGPT per ricevere consigli emotivi, supporto psicologico e perfino simulazioni di terapia. Il motivo è semplice: accesso immediato, costi nulli o ridotti, anonimato. In un contesto segnato da lunghe liste d’attesa e carenza di professionisti, l’idea di un “terapeuta digitale” sempre disponibile è una strada facile da percorrere. Tuttavia, una nuova ricerca della Brown University mette in guardia: dietro questa apparente soluzione si nascondono rischi etici profondi che non possono essere ignorati.
Lo studio: 15 rischi etici sistematici
Il team della Brown University ha lavorato insieme a counselor qualificati e psicologi abilitati per valutare il comportamento di diversi modelli linguistici, tra cui le versioni GPT di OpenAI, Claude di Anthropic e Llama di Meta. I sistemi sono stati istruiti tramite prompt a “comportarsi come terapeuti”, in modo da adottare approcci come la terapia cognitivo-comportamentale.
Il risultato? Anche con istruzioni dettagliate, i chatbot hanno violato sistematicamente standard etici riconosciuti da organismi come l’American Psychological Association. I ricercatori hanno identificato 15 rischi distinti, raggruppati in cinque categorie principali: mancanza di adattamento al contesto personale dell’utente; scarsa collaborazione terapeutica; empatia ingannevole; discriminazioni implicite; gestione inadeguata delle crisi.
In particolare, è emerso che i modelli tendevano a fornire risposte generiche senza considerare la storia individuale, talvolta rafforzando convinzioni distorte o dannose. Ancora più preoccupante è la cosiddetta “empatia simulata”: frasi come “Capisco come ti senti” vengono generate sulla base di pattern linguistici, non di una reale comprensione emotiva. Nei casi più delicati, inclusi pensieri suicidari, la gestione è risultata insufficiente o mal calibrata. Questo non significa che ogni interazione sia pericolosa, ma indica che il sistema, strutturalmente, non possiede le garanzie richieste in ambito clinico.
Il limite dei prompt e l’illusione del controllo
Uno degli obiettivi dello studio era verificare se prompt accuratamente formulati potessero “correggere” il comportamento dei modelli. In teoria, chiedere al sistema di agire come terapeuta cognitivo-comportamentale dovrebbe orientarne l’output. In pratica, però, il prompt non modifica il modello di base: guida solo la superficie della risposta.
Questo crea un’illusione di controllo. L’utente crede di interagire con un consulente formato, ma sta dialogando con un sistema che riproduce schemi linguistici appresi, senza responsabilità clinica né comprensione reale. La differenza non è strutturale, e diventa critica quando la conversazione tocca traumi, crisi o vulnerabilità profonde.
Responsabilità e regolamentazione
La differenza più marcata tra terapeuti umani e consulenti basati su IA non è l’assenza di errore ma la presenza di supervisione, codici deontologici e responsabilità legale. Un terapeuta risponde a un ordine professionale, un LLM no. Questo vuoto normativo crea un divario pericoloso.
Lo studio, presentato alla Conferenza AAAI/ACM su Intelligenza Artificiale, Etica e Società, non sostiene che l’IA debba essere esclusa dalla salute mentale. Al contrario, riconosce il potenziale nell’ampliare l’accesso al supporto psicologico. Ma l’accesso senza garanzie può trasformarsi in danno. Prima di affidare a questi sistemi situazioni ad alto rischio, servono standard etici chiari, valutazioni rigorose e strutture legali solide.
Iscriviti alla Newsletter di Sanità Informazione per rimanere sempre aggiornato