Navegar por la terapia de IA: orientación para médicos sobre confianza y derivaciones

Una persona relajada en un sofá se comunica con un robot; ambos tienen burbujas de diálogo que indican una conversación.

La terapia de IA, que antes era un concepto confinado a la ciencia ficción, es ahora una realidad tangible, que presenta dilemas complejos. Por un lado, la IA ofrece la posibilidad de democratizar el acceso al apoyo en salud mental. Por otra, plantea profundas cuestiones sobre la seguridad, la validez clínica y la propia naturaleza de la relación terapéutica. Algunos estados de EE.UU., como California y Nueva Jersey, están introduciendo proyectos de ley para regular la terapia de IA, tras los informes de bots que dan consejos perjudiciales a los usuarios.

Sin duda, es cada vez más probable que los pacientes utilicen o pregunten a sus proveedores sobre herramientas de salud mental basadas en IA. Para ayudarte a navegar por la aparición de la terapia de IA, aquí tienes las ideas que necesitarás para asesorar a los pacientes, evaluar las herramientas y comprender el papel cambiante de la tecnología en la atención sanitaria mental.

¿Qué es la terapia de IA y cómo funciona?

La terapia de IA se refiere al apoyo a la salud mental prestado a través de plataformas de inteligencia artificial. Estas herramientas se presentan de varias formas, entre ellas

  • Chatbots y agentes conversacionales: Los chatbots son una de las formas más extendidas de IA. Mediante el procesamiento del lenguaje natural (PLN), los terapeutas chatbot entablan conversaciones basadas en texto con los usuarios, ofreciéndoles un espacio para articular sentimientos y resolver problemas.
  • Terapeutas virtuales: Son sistemas más avanzados que pueden incorporar un avatar y la interacción por voz, simulando una sesión terapéutica más directa.
  • Aplicaciones de salud mental potenciadas por la IA: Estas aplicaciones (como Woebot y Wysa) suelen integrar la IA para rastrear los patrones del estado de ánimo y ofrecer contenido personalizado basado en modelos terapéuticos establecidos como la Terapia Cognitivo-Conductual (TCC).

La base de estas herramientas son tecnologías sofisticadas como el aprendizaje automático (AM), que permite a la IA aprender de grandes conjuntos de datos de texto y conversaciones para mejorar sus respuestas con el tiempo. La PNL permite a la IA interpretar y generar textos similares a los humanos.

Los miembros de Sermo ya están notando los efectos de estas herramientas en la práctica clínica. En una pequeña encuesta por muestreo, casi la mitad (48%) de los médicos informaron de que sus pacientes discuten con frecuencia el uso de chatbots de IA o aplicaciones de terapia digital, y otro 16% oye hablar de ello ocasionalmente.

A pesar de su creciente popularidad, algunos miembros siguen siendo escépticos respecto a la terapia de IA. «Puede ser útil en pequeña medida, pero en mi experiencia con pacientes que se someten a terapia, prefieren un cara a cara con un médico», señala un médico de cabecera. «…el paciente se beneficiaría más a largo plazo con una consulta tradicional».

Otros expresaron una preocupación más fundamental. «La falta de contacto social es la razón por la que muchos están deprimidos en primer lugar. ¿Estamos diciendo ahora que queremos alejar a más gente de otras personas con un robot?», expresa un médico de medicina familiar. «Al final, lo que cura es el contacto humano, el amor y la amabilidad», se hace eco un médico de familia.

¿Cuáles son los beneficios de la IA en salud mental para los pacientes?

A pesar de las válidas preocupaciones, los beneficios potenciales de la IA en la salud mental son convincentes. Muchas aplicaciones terapéuticas de la IA se basan en intervenciones estructuradas y basadas en pruebas, como la TCC. Estas herramientas prometen ampliar el alcance de la asistencia sanitaria mental de varias formas clave.

En primer lugar, la terapia de IA puede aumentar la accesibilidad, como señala una revisión de la investigación. La asistencia sanitaria mental suele tener barreras importantes, como costes elevados, largas listas de espera y aislamiento geográfico. Las herramientas de terapia de IA pueden proporcionar apoyo inmediato y a la carta a una fracción del coste de la terapia tradicional, si no gratis. Esto pone el apoyo a disposición de personas que, de otro modo, no tendrían opciones. Para alguien que atraviesa un momento de crisis en mitad de la noche, un chatbot de IA puede ofrecer una escucha instantánea.

La revisión también señala que la IA ofrece escalabilidad, lo que es especialmente digno de mención en medio de una escasez mundial de profesionales de la salud mental. Los terapeutas humanos sólo pueden atender a un número limitado de pacientes, pero una herramienta de IA puede atender a millones de usuarios simultáneamente. Esta capacidad de ampliación es crucial para abordar la necesidad generalizada de apoyo a la salud mental, especialmente en las poblaciones desatendidas.Otro estudio señala que la IA proporciona un grado de anonimato que puede ser un poderoso atractivo para quienes dudan en buscar ayuda. El estigma que rodea a las enfermedades mentales sigue siendo una potente barrera, que impide a muchos hablar con un terapeuta humano por miedo a ser juzgados. Interactuar con una herramienta de IA puede resultar más seguro y menos intimidatorio.

La validez clínica y la seguridad del tratamiento con IA

Aunque la terapia de IA tiene beneficios potenciales, también plantea cuestiones de validez y seguridad clínicas. Para que los expertos en salud mental recomienden cualquier herramienta terapéutica, debe demostrarse su eficacia y seguridad. La investigación sobre la eficacia de la terapia de IA está aún en sus primeras fases, pero va en aumento. Una revisión señala que algunos estudios han mostrado resultados prometedores, pero las pruebas distan mucho de ser concluyentes en todas las afecciones y plataformas.

La falta de un marco normativo normalizado es uno de los principales retos, señala el informe. Mientras que algunas herramientas de IA se someten a pruebas rigurosas y buscan la validación mediante ensayos clínicos, otras se hacen públicas sin apenas supervisión independiente. A los pacientes puede resultarles difícil distinguir entre las aplicaciones basadas en pruebas y las que son esencialmente aplicaciones de bienestar con un barniz de lenguaje clínico.

La privacidad de los datos es otra preocupación primordial. Estas aplicaciones recogen información sanitaria personal increíblemente sensible. Sin protocolos de seguridad y políticas transparentes de uso de los datos, los pacientes corren el riesgo de que se vulnere su intimidad o de que se haga un uso indebido de sus datos. Corresponde a los médicos estar atentos para cuestionar cómo protegen estas empresas la información de los usuarios y si sus prácticas cumplen normativas como la HIPAA.

La comunidad Sermo es consciente de estos riesgos. En una pequeña encuesta por muestreo, una abrumadora mayoría de médicos pidió una regulación más estricta. El 60% de los encuestados cree que «se necesita urgentemente una supervisión fuerte» para las herramientas de salud mental de IA, y otro 27% está de acuerdo en que «se necesita cierta regulación.»

¿Deben confiar los pacientes y los médicos en los consejos terapéuticos de la IA?

Es cuestionable que una máquina, por sofisticada que sea, pueda ganarse realmente la confianza de un paciente. Aunque la IA puede procesar el lenguaje, no puede comprender realmente las emociones humanas. Carece de la capacidad de empatía genuina, del juicio clínico matizado y de la experiencia humana compartida que permite a los terapeutas establecer una buena relación y navegar por paisajes psicológicos complejos.

La IA lucha con las sutilezas de la comunicación humana: las señales tácitas, el contexto cultural y las profundas corrientes emocionales que un terapeuta humano está entrenado para percibir. Esta limitación resulta especialmente peligrosa en situaciones de crisis. Esto se ilustra en casos trágicos y de gran repercusión en los que la IA ha dado respuestas perjudiciales o inadecuadas a usuarios que expresaban angustia grave o ideación suicida. Por ejemplo, una demanda alega que un chico de 16 años se suicidó después de que ChatGPT le animara a hacerlo, y otro caso implica a un hombre que mató a su madre y se suicidó después de que sus delirios fueran supuestamente alimentados por un chatbot de IA. Ambos incidentes subrayan los peligros de la IA no supervisada en contextos delicados de salud mental.

Un médico de Sermo destaca las implicaciones éticas de que un algoritmo proporcione asesoramiento terapéutico sin supervisión humana. «Creo que existe el riesgo de que los chatbots de IA sustituyan involuntariamente la conexión humana para algunas personas vulnerables», advierten. «…Nada puede sustituir realmente la empatía y los matices de las relaciones humanas reales». Un oncólogo y miembro de Sermo opina lo mismo. «La IA puede realizar muy bien ciertas tareas programáticas, pero carece de iniciativa subjetiva, por lo que no puede sustituir al trabajo humano», escriben. Los miembros ven la IA como una herramienta, no como un sustituto completo de los terapeutas.

¿Está bien que los médicos remitan a los pacientes a la terapia de IA?

Dados los beneficios y los riesgos, la cuestión sigue siendo si alguna vez es apropiado que los médicos recomienden una herramienta de terapia de IA. Las encuestas de Sermo muestran que los médicos ven un papel potencial, pero condicional, para estas herramientas.

Cuando se les preguntó si recomendaban herramientas de IA a los pacientes con ansiedad o estrés de leves a moderados, el 68% de los médicos lo consideraron «muy apropiado» (34%) o «algo apropiado con supervisión» (34%). Sin embargo, otros son más cautos, y el 19% cree que sólo es apropiado cuando no hay otras opciones disponibles.

Si las herramientas de IA pudieran validarse clínicamente y demostrar su seguridad, el entusiasmo aumentaría. La mayoría (52%) de los médicos dijeron que sería «muy probable» que incorporaran dichas herramientas a su práctica, y el 28% que sería «algo probable», dependiendo de la población de pacientes y de la calidad de la herramienta.

Los escenarios adecuados para la derivación podrían incluir el uso de las herramientas como puente cuando los pacientes están en una larga lista de espera para un terapeuta humano. O bien, los médicos pueden recomendar herramientas como aplicaciones basadas en la TCC para practicar habilidades entre sesiones, o para proporcionar apoyo de baja intensidad a pacientes con estrés leve. En todos los casos, la recomendación debe ir acompañada de advertencias claras sobre las limitaciones de la herramienta y un énfasis en mantener la conexión con un profesional sanitario humano.

Dando forma al futuro de la IA en la salud mental

A medida que crece la popularidad de la terapia de IA, la comunidad médica está averiguando cómo puede incorporar las herramientas de forma ética y eficaz.

Para los médicos, esto significa exigir la validación clínica, dar prioridad a la seguridad del paciente y comprender qué herramientas tienen pruebas que las respalden, y de cuáles deben apartar a los pacientes. El objetivo es aprovechar la accesibilidad y escalabilidad de la IA sin sacrificar la profunda conexión humana que está en el corazón de la curación.

A medida que se desarrolla esta tecnología, resultan útiles las plataformas que fomentan el debate entre iguales. Sermo proporciona un espacio para que los médicos de todo el mundo compartan experiencias, debatan dilemas éticos y configuren colectivamente las normas de la IA en medicina.