¿Quién es responsable cuando la IA comete un error médico?

Ilustración de un robot que sostiene un signo X junto a un documento y el mazo de un juez, simbolizando cuestiones legales o normativas, como quién es responsable cuando la IA comete un error médico.

Entre un paciente y otro, puedes alternar entre las historias clínicas y un asistente de IA, pidiéndole que resuma un historial médico complejo, redacte una apelación de autorización previa y señale posibles interacciones farmacológicas. Minutos después, sugiere diagnósticos diferenciales basados en síntomas que antes habrían requerido hojear materiales de referencia o confiar únicamente en la memoria. La eficacia es innegable, pero ¿qué debe verificarse de forma independiente, qué debe figurar en la historia clínica y, en última instancia, quién es responsable si algo sale mal?

A medida que la inteligencia artificial se va integrando en los flujos de trabajo clínicos, los médicos se enfrentan a un panorama jurídico cambiante, en el que aún se está definiendo la línea que separa la asistencia de la responsabilidad. «Aún está por ver cómo afecta el uso de la inteligencia artificial a la responsabilidad por negligencia médica», comparte con Sermo Lauren DeMoss, abogada especializada en asistencia sanitaria y copresidenta de la práctica de asistencia sanitaria y ciencias de la vida de Maynard Nexsen. «No hay mucha jurisprudencia, pero sin duda podemos esperar ver más en los próximos años».

Los médicos de Sermo debaten sobre lo que consideran un uso responsable de las herramientas de IA. Algunos las consideran fiables en general. «He utilizado OpenEvidence (una colaboración entre JAMA y NEJM) e incluso me he remitido a ella ocasionalmente, sobre todo cuando los pacientes se han mostrado escépticos ante las recomendaciones», escribe un médico. «Ofrece enlaces a los datos que respaldan sus respuestas y me ha parecido que no tiene alucinaciones (hasta ahora)».

Otros miembros de Sermo señalan limitaciones. «Es incomprensible dejarse llevar por algo que no está probado, sobre todo en nuestro campo», escribe un médico. «Sin embargo, reconozco que utilizo la IA para recopilar información especializada en mis libros; no concebiría el tedioso método de buscar citas, reimpresiones y resúmenes sobre un tema concreto sin un procedimiento de este tipo». Otro miembro de Sermo cree que la IA es «útil para la consulta, pero no puede convertirse en la principal herramienta de toma de decisiones».

A medida que la IA se generaliza en la medicina, se plantea la cuestión de si los médicos pueden ser demandados si siguen, o ignoran, un diagnóstico sugerido por un algoritmo. Explora el panorama en evolución de la responsabilidad médica por IA y cómo la IA puede influir en la norma de asistencia.

Descargo de responsabilidad: Este artículo refleja conversaciones reales que tienen lugar en la comunidad de médicos de Sermo y se publica únicamente con fines educativos. No constituye asesoramiento legal o médico. La información proporcionada es de carácter general; las leyes que rigen la negligencia médica, la norma de atención y la responsabilidad varían significativamente según la jurisdicción. Los médicos deben ponerse en contacto con un representante legal cualificado para obtener asesoramiento específico a sus circunstancias. Las citas de los miembros de la comunidad se han anonimizado.

¿Son los médicos responsables de los errores de IA?

Cuando el software falla, los desarrolladores pueden enfrentarse a demandas por responsabilidad del producto o por negligencia, dependiendo de cómo se clasifique la tecnología y de la jurisdicción. Las demandas de responsabilidad por productos defectuosos tratan el software como un producto defectuoso. Considera el caso Raine contra OpenAI . El caso se centra en las acusaciones de que ChatGPT generó contenido perjudicial que contribuyó a la muerte del usuario Adam Raine, lo que plantea dudas sobre si el desarrollador puede ser considerado estrictamente responsable de los resultados de su tecnología. Dado que no había ningún médico implicado, la atención jurídica se centra en el producto en sí: si estaba defectuosamente diseñado o insuficientemente protegido.

Los demandantes en casos como éste intentan tratar las herramientas de IA de forma similar a otros productos de consumo, argumentando que las empresas deben asumir la responsabilidad de los daños previsibles causados por sus sistemas. «Un terapeuta humano habría reconocido que la escalada de presentaciones de Adam podría haber sido él queriendo que le dieran razones para no morir, pero la IA, por su propio diseño, no podía distinguir entre su persistencia y una demanda real de ánimo», afirma un médico en Sermo en relación con el caso.

Sin embargo, los supuestos de los médicos se evalúan a través de una lente diferente. Si un médico utiliza un algoritmo para atender a un paciente, es probable que la atención jurídica se centre directamente en el juicio clínico del médico. En 2026, la jurisprudencia relacionada con el uso de la IA en la asistencia sanitaria es escasa. Pero, basándonos en los casos existentes de negligencia relacionada con la HCE, los tribunales tienden a centrarse principalmente en cómo el médico interpretó y actuó según los resultados del software, y es probable que se aplique el mismo razonamiento y principio jurídico subyacente (que el deber de asistencia médico-paciente es indelegable). Los tribunales pueden tener en cuenta lo siguiente:

  • ¿Evaluó el clínico críticamente la recomendación?
  • ¿Era razonable confiar en ello en ese contexto?
  • ¿Habría tomado la misma decisión un médico con una formación similar?

Esta distinción crea una creciente zona gris a medida que se generaliza el uso de la IA. Los sistemas de IA pueden generar resultados erróneos que, sin embargo, pueden parecer fidedignos. Si un médico sigue una recomendación generada por IA que resulta perjudicial, podría incurrir en responsabilidad por exceso de confianza. Por otra parte, si ignora una advertencia generada por la IA que más tarde resulte exacta, esa decisión también podría ser examinada como una oportunidad perdida de cumplir la norma evolutiva de asistencia.

A medida que casos como el de Raine contra OpenAI avanzan en los tribunales, pueden ayudar a aclarar dónde recae la responsabilidad de los desarrolladores de IA. La IA puede informar las decisiones, pero no absorbe la responsabilidad, según un miembro de Sermo con experiencia médico-legal. «No se puede ceder el papel del médico como responsable final de la toma de decisiones clínicas… La IA no es ni ética ni legalmente un sustituto de la experiencia y el juicio».

Cómo la «alucinación» de la IA puede afectar a tu toma de decisiones como médico

La IA generativa no tiene la capacidad de razonamiento de un humano, señala un miembro de Sermo con experiencia médico-legal: «La IA funciona mediante la activación de algoritmos sucesivos… esto tampoco es más que un simulacro de pensamiento».

Esos algoritmos son tristemente célebres por proporcionar con seguridad resultados falsos, a menudo denominados alucinaciones de la IA en medicina. A veces, el software llega a fabricar resultados de estudios o inventar citas que en realidad no existen.

Por ello, en la práctica, generalmente se espera que los médicos verifiquen las conclusiones algorítmicas. Las plataformas de grado médico como OpenEvidence, que enlaza directamente con los datos clínicos de apoyo, suelen ser una opción más segura que confiar en herramientas de grado consumidor como ChatGPT para consultas clínicas complejas. «ChatGPT tiene fama de ser tu amigo más necesitado, te dice lo geniales que son tus ideas e incluso te dice que estás equivocado afirmando lo brillante que era tu pregunta», advierte un médico en Sermo.

Cómo integrar de forma responsable la IA en la atención médica

«Los casos existentes siguen basándose en la norma del ‘médico razonable en circunstancias similares’, independientemente de que se haya utilizado IA», señala DeMoss . Esta norma sigue dando prioridad al juicio humano sobre los resultados algorítmicos. «Actualmente, no existe doctrina ni precedentes que asignen ninguna responsabilidad total o parcial al sistema de IA y a su desarrollador, ni siquiera cuando las recomendaciones de la IA repercuten directamente en la atención al paciente», dice DeMoss. «Pero, en preparación de lo que está por venir, tanto los médicos como los desarrolladores de tecnología de IA deben evaluar la cobertura del seguro de responsabilidad civil para determinar qué queda excluido de la cobertura».

Actuar «razonablemente» puede requerir una perspectiva crítica, ya que los modelos generativos se construyen a menudo para ser agradables con un sesgo de complacer a la gente. En un entorno clínico, esto puede manifestarse como que el software genere datos falsos para respaldar la sospecha de diagnóstico de un médico. El uso responsable de la IA «se va a basar en garantizar la precisión y eso significará compensar cualquier sesgo inherente a una herramienta de IA que probablemente actúe como ‘complaciente con la gente’ y pueda incluso alucinar respuestas para dar al usuario lo que parece que quiere», afirma un médico en Sermo.

Legalmente, el médico es la última barrera para evitar daños. Seguir un algoritmo hasta el error suele considerarse un fallo de la supervisión humana. «El médico se encuentra en la posición de ser la ‘última oportunidad clara’ para evitar que una entrada de IA errónea se traduzca en una atención real», afirma un miembro de Sermo con experiencia médico-legal.

Si no estás de acuerdo con un resultado, tu razonamiento clínico puede protegerte. «Si el médico conocía el resultado de la IA, pero no creía que debiera seguirse… la defensa consistiría en que el médico necesita demostrar que el resultado de la IA no era probablemente correcto», aporta un médico al debate.

Puntos clave para los médicos

A los ojos de la ley, los algoritmos son una herramienta complementaria y no un sustituto del juicio clínico. Al utilizar estos sistemas, una documentación sólida incluye el «por qué», mencionando específicamente la entrada algorítmica y exponiendo claramente tu razonamiento clínico para seguirla o rechazarla. «La documentación y el juicio crítico van a ser más importantes que nunca», afirma un miembro de Sermo.

Como se vio en el caso Raine contra OpenAI, los demandantes pueden reclamar daños y perjuicios a las empresas tecnológicas cuando no hay un médico implicado. «La demanda principal en el caso es por responsabilidad objetiva… tratando ChatGPT como un producto inherentemente defectuoso», señala un médico en Sermo. En los casos en que un médico utiliza una herramienta de IA, el marco jurídico principal suele ser la negligencia profesional.

Los médicos tienen un deber independiente e indelegable para con el paciente. «Estos deberes exigen, por tanto, el uso responsable de la IA según las normas profesionales», escribe un miembro de Sermo. Otro miembro de la comunidad lo expresa así «Los médicos que utilizan la IA están obligados a ser, como mínimo, una parada de aparcamiento y, como máximo, una franja de espigas, evaluando si se debe permitir que la aportación de la IA avance en la asistencia». Un tercer miembro advierte que «la IA es sólo una herramienta de umbral que luego se somete a revisión humana».

Tu papel como adjudicador clínico

Aunque la inteligencia artificial está diseñada para ser útil, no es necesariamente precisa. Tu papel como médico es actuar como «adjudicador clínico», filtrando los resultados algorítmicos a través de una lente de experiencia clínica para garantizar la seguridad del paciente.

Los médicos de Sermo navegan juntos por este nuevo territorio, debatiendo cómo utilizan las herramientas de IA sin perder de vista la crítica. A través de la comunidad online, los médicos aprenden unos de otros de sus experiencias en el mundo real en distintas especialidades, países y sistemas jurídicos. Únete gratis y conecta con más de 1 millón de médicos de todo el mundo.

Este artículo ha sido revisado médicamente por un miembro de la comunidad de médicos de Sermo.