La terapia con l’intelligenza artificiale, un tempo un concetto confinato alla fantascienza, è ora una realtà tangibile che presenta complessi dilemmi. Da un lato, l’IA offre il potenziale per democratizzare l’accesso al supporto della salute mentale. Dall’altro, solleva profondi interrogativi sulla sicurezza, sulla validità clinica e sulla natura stessa della relazione terapeutica. Alcuni stati americani, come la California e il New Jersey, stanno introducendo proposte di legge per regolamentare la terapia con l’IA, a seguito di segnalazioni di bot che danno consigli dannosi agli utenti.
Indubbiamente i pazienti sono sempre più propensi a utilizzare o a chiedere ai loro fornitori strumenti per la salute mentale basati sull’IA. Per aiutarti a orientarti nell’emergere delle terapie basate sull’intelligenza artificiale, ecco gli approfondimenti di cui avrai bisogno per consigliare i pazienti, valutare gli strumenti e comprendere l’evoluzione del ruolo della tecnologia nella salute mentale.
Cos’è la terapia AI e come funziona?
La terapia AI si riferisce al supporto alla salute mentale fornito attraverso piattaforme di intelligenza artificiale. Questi strumenti si presentano in varie forme, tra cui:
- Chatbot e agenti conversazionali: I chatbot sono una delle forme più diffuse di IA. Utilizzando l’elaborazione del linguaggio naturale (NLP), i terapeuti dei chatbot coinvolgono gli utenti in conversazioni basate sul testo, offrendo uno spazio per articolare i sentimenti e risolvere i problemi.
- Terapisti virtuali: Si tratta di sistemi più avanzati che possono incorporare un avatar e un’interazione vocale, simulando una sessione terapeutica più diretta.
- Applicazioni per la salute mentale alimentate dall’intelligenza artificiale: queste applicazioni (come Woebot e Wysa) spesso integrano l’intelligenza artificiale per tracciare i modelli di umore e fornire contenuti personalizzati basati su modelli terapeutici consolidati come la terapia cognitivo-comportamentale (CBT).
Alla base di questi strumenti ci sono tecnologie sofisticate come l’apprendimento automatico (ML), che permette all’IA di imparare da vasti set di testi e conversazioni per migliorare le sue risposte nel tempo. L’NLP consente all’IA di interpretare e generare testi simili a quelli umani.
I membri di Sermo stanno già notando gli effetti di questi strumenti nella pratica clinica. In un piccolo sondaggio a campione, quasi la metà (48%) dei medici ha riferito che i loro pazienti parlano spesso dell’uso di chatbot AI o di app per terapie digitali, mentre un altro 16% ne sente parlare occasionalmente.
Nonostante la crescente popolarità, alcuni membri rimangono scettici nei confronti delle terapie di AI. “Può essere utile in una piccola misura, ma nella mia esperienza con i pazienti in terapia, essi preferiscono un faccia a faccia con un medico”, osserva un medico di base. “… il paziente trarrebbe maggiori benefici a lungo termine da un consulto tradizionale”.
Altri hanno espresso una preoccupazione più fondamentale. “La mancanza di contatti sociali è il motivo per cui molti sono depressi. Stiamo forse dicendo che vogliamo allontanare sempre più persone dagli altri con un robot?”, afferma un medico di famiglia. “Alla fine, è il tocco umano, l’amore e la gentilezza a guarire”, gli fa eco un medico di famiglia.
Quali sono i vantaggi dell’IA nella salute mentale per i pazienti?
Nonostante le valide preoccupazioni, i potenziali benefici dell’IA nella salute mentale sono convincenti. Molte applicazioni terapeutiche dell’intelligenza artificiale si basano su interventi strutturati e basati sull’evidenza, come la CBT. Questi strumenti promettono di ampliare la portata della salute mentale in diversi modi.
In primo luogo, la terapia di intelligenza artificiale può aumentare l’accessibilità, come osserva una rassegna di ricerche. L’assistenza sanitaria mentale presenta spesso barriere significative, tra cui costi elevati, lunghe liste d’attesa e isolamento geografico. Gli strumenti di terapia AI possono fornire un supporto immediato e on-demand a una frazione del costo della terapia tradizionale, se non addirittura gratuitamente. Questo rende disponibile il supporto a persone che altrimenti non avrebbero alcuna possibilità. Per chi vive un momento di crisi nel cuore della notte, un chatbot AI può offrire un ascolto immediato.
L’analisi rileva inoltre che l’IA offre la scalabilità, un aspetto particolarmente degno di nota in un contesto di carenza globale di professionisti della salute mentale. I terapisti umani possono vedere solo un numero limitato di pazienti, ma uno strumento di IA può servire milioni di utenti contemporaneamente. Questa capacità di scalare è fondamentale per affrontare il bisogno diffuso di supporto alla salute mentale, soprattutto nelle popolazioni poco servite. Un altro studio osserva che l’IA offre un grado di anonimato che può essere una potente attrattiva per coloro che esitano a cercare aiuto. Lo stigma che circonda la malattia mentale rimane una barriera potente, che impedisce a molti di parlare con un terapeuta umano per paura di essere giudicati. Interagire con uno strumento di intelligenza artificiale può sembrare più sicuro e meno intimidatorio.
La validità clinica e la sicurezza della terapia con AI
Se da un lato la terapia di AI presenta potenziali benefici, dall’altro solleva questioni di validità clinica e sicurezza. Per poter raccomandare uno strumento terapeutico, gli esperti di salute mentale devono dimostrarne l’efficacia e la sicurezza. La ricerca sull’efficacia della terapia AI è ancora agli inizi, ma è in crescita. Una revisione rileva che alcuni studi hanno mostrato risultati promettenti, ma le prove sono ben lungi dall’essere definitive per tutte le condizioni e le piattaforme.
La mancanza di un quadro normativo standardizzato è una delle sfide principali, si legge nella revisione. Mentre alcuni strumenti di intelligenza artificiale sono sottoposti a test rigorosi e cercano di essere convalidati attraverso studi clinici, altri vengono rilasciati al pubblico senza alcuna supervisione indipendente. Per i pazienti potrebbe essere difficile distinguere tra le applicazioni basate su prove di efficacia e quelle che sono essenzialmente applicazioni per il benessere con una patina di linguaggio clinico.
La privacy dei dati è un’altra preoccupazione fondamentale. Queste app raccolgono informazioni sanitarie personali incredibilmente sensibili. Senza protocolli di sicurezza e politiche di utilizzo dei dati trasparenti, i pazienti sono a rischio di violazione della privacy o di uso improprio dei loro dati. I medici devono essere vigili e chiedersi come queste aziende proteggano le informazioni degli utenti e se le loro pratiche siano conformi a normative come l’HIPAA.
La comunità di Sermo è consapevole di questi rischi. In un piccolo sondaggio a campione, la stragrande maggioranza dei medici ha chiesto una regolamentazione più severa. Il 60% degli intervistati ritiene che “sia urgente una forte supervisione” per gli strumenti di intelligenza artificiale per la salute mentale, mentre un altro 27% è d’accordo che “sia necessaria una certa regolamentazione”.
I pazienti e i medici dovrebbero fidarsi dei consigli terapeutici dell’AI?
È discutibile che una macchina, per quanto sofisticata, possa davvero guadagnarsi la fiducia di un paziente. Sebbene l’IA sia in grado di elaborare il linguaggio, non è in grado di comprendere veramente le emozioni umane. Non ha la capacità di provare un’autentica empatia, di esprimere giudizi clinici sfumati e di condividere l’esperienza umana che permette ai terapeuti di costruire un rapporto e di navigare in paesaggi psicologici complessi.
L’intelligenza artificiale non è in grado di cogliere le sottigliezze della comunicazione umana: gli indizi non detti, il contesto culturale e le correnti emotive profonde che un terapeuta umano è addestrato a percepire. Questa limitazione diventa particolarmente pericolosa nelle situazioni di crisi. Lo dimostrano casi tragici e di alto profilo in cui l’intelligenza artificiale ha fornito risposte dannose o inappropriate a utenti che esprimevano un forte disagio o idee suicide. Ad esempio, un’azione legale sostiene che un ragazzo di 16 anni è morto suicida dopo che ChatGPT ha incoraggiato l’atto, mentre un altro caso riguarda un uomo che ha ucciso sua madre e se stesso dopo che le sue manie sono state alimentate da un chatbot AI. Entrambi gli incidenti sottolineano i pericoli di un’intelligenza artificiale non supervisionata in contesti sensibili per la salute mentale.
Un medico generico di Sermo sottolinea le implicazioni etiche di un algoritmo che fornisce consigli terapeutici senza la supervisione umana. “Penso che ci sia il rischio che i chatbot AI possano involontariamente sostituire il contatto umano per alcune persone vulnerabili”, avvertono. “Nulla può davvero sostituire l’empatia e le sfumature delle relazioni umane reali”. Un oncologo e membro di Sermo la pensa allo stesso modo. “L’intelligenza artificiale può svolgere molto bene alcuni compiti programmatici, ma manca di iniziativa soggettiva, motivo per cui non può sostituire il lavoro umano”, scrivono. I membri vedono l’IA come uno strumento, non come un sostituto completo dei terapeuti.
I medici possono indirizzare i pazienti alla terapia con AI?
Visti i benefici e i rischi, resta da chiedersi se sia mai opportuno che i medici raccomandino uno strumento di terapia dell’AI. Il sondaggio Sermo mostra che i medici vedono un ruolo potenziale, ma condizionato, per questi strumenti.
Alla domanda su come consigliare gli strumenti di IA ai pazienti con ansia o stress da lieve a moderato, il 68% dei medici li ha ritenuti “molto appropriati” (34%) o “un po’ appropriati con supervisione” (34%). Tuttavia, altri sono più cauti: il 19% ritiene che sia appropriato solo quando non sono disponibili altre opzioni.
Se gli strumenti di IA potessero essere validati clinicamente e dimostrati sicuri, l’entusiasmo aumenterebbe. La maggioranza (52%) dei medici ha dichiarato che sarebbe “molto probabile” incorporare tali strumenti nella propria pratica, mentre il 28% sarebbe “un po’ probabile”, a seconda della popolazione di pazienti e della qualità dello strumento.
Gli scenari appropriati per il rinvio potrebbero includere l’uso degli strumenti come ponte quando i pazienti sono in una lunga lista d’attesa per un terapeuta umano. Oppure, i medici possono consigliare strumenti come le app basate sulla CBT per esercitarsi tra una seduta e l’altra o per fornire un supporto a bassa intensità ai pazienti con uno stress lieve. In ogni caso, la raccomandazione dovrebbe essere accompagnata da chiari avvertimenti sui limiti dello strumento e dall’enfasi sul mantenimento di un legame con un operatore sanitario umano.
Dare forma al futuro dell’IA nell’assistenza sanitaria mentale
Con l’aumento della popolarità delle terapie di intelligenza artificiale, la comunità medica sta cercando di capire come incorporare questi strumenti in modo etico ed efficace.
Per i medici, questo significa esigere una convalida clinica, dare priorità alla sicurezza del paziente e capire quali strumenti hanno prove alle spalle – e quali invece dovrebbero guidare i pazienti lontano da loro. L’obiettivo è quello di sfruttare l’accessibilità e la scalabilità dell’IA senza sacrificare la profonda connessione umana che è alla base della guarigione.
Con lo sviluppo di questa tecnologia, sono utili le piattaforme che favoriscono la discussione tra pari. Sermo offre uno spazio ai medici di tutto il mondo per condividere esperienze, discutere di dilemmi etici e definire collettivamente gli standard dell’IA in medicina.