
Entre deux patients, vous pouvez passer d’un dossier à l’autre et demander à un assistant IA de résumer des antécédents médicaux complexes, de rédiger un appel d’autorisation préalable et de signaler des interactions médicamenteuses potentielles. Quelques minutes plus tard, il suggère des diagnostics différentiels basés sur des symptômes qui auraient autrefois nécessité de feuilleter des documents de référence ou de se fier uniquement à sa mémoire. L’efficacité est indéniable, mais qu’est-ce qui doit être vérifié de manière indépendante, qu’est-ce qui doit figurer dans le dossier médical et, en fin de compte, qui est responsable si quelque chose ne va pas ?
Alors que l’intelligence artificielle s’intègre de plus en plus dans les flux de travail cliniques, les médecins naviguent dans un paysage juridique mouvant où la frontière entre l’assistance et la responsabilité est encore en cours de définition. « Il reste à voir comment l’utilisation de l’intelligence artificielle influe sur la responsabilité pour faute médicale », explique à Sermo Lauren DeMoss, avocate spécialisée dans les soins de santé et co-présidente du cabinet Maynard Nexsen spécialisé dans les soins de santé et les sciences de la vie. « Il n’y a pas beaucoup de jurisprudence, mais nous pouvons certainement nous attendre à en voir davantage dans les années à venir. »
Sur Sermo, les médecins discutent de ce qu’ils considèrent comme une utilisation responsable des outils d’IA. Certains les trouvent généralement fiables. « J’ai utilisé OpenEvidence (une collaboration entre le JAMA et le NEJM) et je m’y suis même référé occasionnellement, en particulier lorsque les patients étaient sceptiques à l’égard des recommandations », écrit un médecin. « Il fournit des liens vers les données à l’appui de ses réponses et je l’ai trouvé exempt d’hallucinations (jusqu’à présent).
D’autres membres de Sermo soulignent les limites du système. « Il est incompréhensible de s’emballer pour quelque chose qui n’est pas prouvé, surtout dans notre domaine » , écrit un médecin.« Cependant, je reconnais utiliser l’IA pour recueillir des informations spécialisées dans mes livres ; je ne concevrais pas la méthode fastidieuse de recherche de citations, de réimpressions et de résumés sur un sujet spécifique sans un tel procédé. » Un autre membre de Sermo estime que l’IA est « utile pour le conseil mais ne peut pas devenir le principal outil de prise de décision. »
La généralisation de l’IA en médecine soulève la question de savoir si les médecins peuvent être poursuivis en justice s’ils suivent ou ignorent un diagnostic suggéré par un algorithme. Découvrez l’évolution du paysage de la responsabilité médicale en matière d’IA et la manière dont l’IA peut influencer la norme de soins.
Clause de non-responsabilité : Cet article reflète des conversations réelles ayant lieu au sein de la communauté des médecins de Sermo et est publié à des fins éducatives uniquement. Il ne constitue pas un avis juridique ou médical. Les informations fournies sont de nature générale ; les lois régissant la faute médicale, les normes de soins et la responsabilité varient considérablement d’une juridiction à l’autre. Les médecins doivent contacter un représentant juridique qualifié pour obtenir des conseils spécifiques à leur situation. Les citations des membres de la communauté ont été rendues anonymes.
Les médecins sont-ils responsables des erreurs d’IA ?
En cas de défaillance d’un logiciel, les développeurs peuvent faire l’objet d’une action en responsabilité du fait des produits ou en négligence, en fonction de la classification de la technologie et de la juridiction concernée. Les actions en responsabilité du fait des produits traitent le logiciel comme un produit défectueux. Considérez l’affaire Raine c. OpenAI . L’affaire est centrée sur des allégations selon lesquelles ChatGPT a généré un contenu nuisible qui a contribué à la mort de l’utilisateur Adam Raine, ce qui soulève la question de savoir si le développeur peut être tenu strictement responsable des résultats de sa technologie. Étant donné qu’aucun médecin n’a été impliqué, l’accent juridique est mis sur le produit lui-même, à savoir s’il a été conçu de manière défectueuse ou s’il a fait l’objet de mesures de protection insuffisantes.
Dans ce type d’affaires, les plaignants tentent de traiter les outils d’IA de la même manière que les autres produits de consommation, en faisant valoir que les entreprises devraient assumer la responsabilité des dommages prévisibles causés par leurs systèmes. « Un thérapeute humain aurait reconnu que l’escalade des présentations d’Adam pouvait être due au fait qu’il voulait qu’on lui donne des raisons de ne pas mourir, mais l’IA, de par sa conception même, ne pouvait pas faire la différence entre sa persistance et une demande réelle d’encouragement », affirme un médecin sur Sermo à propos de l’affaire.
Les scénarios concernant les médecins, en revanche, sont évalués sous un angle différent. Si un médecin utilise un algorithme pour soigner un patient, il est probable que le jugement clinique du médecin restera au centre de l’attention juridique. En 2026, la jurisprudence relative à l’utilisation de l’IA dans les soins de santé est peu abondante. Toutefois, si l’on se réfère aux affaires de faute professionnelle liées au DSE, les tribunaux ont tendance à se concentrer principalement sur la manière dont le médecin a interprété les résultats du logiciel et a agi en conséquence – et il est probable que le même raisonnement et le même principe juridique sous-jacent (à savoir que l’obligation de diligence entre le médecin et le patient ne peut être déléguée) s’appliqueront. Les tribunaux peuvent prendre en considération les éléments suivants :
- Le clinicien a-t-il procédé à une évaluation critique de la recommandation ?
- Était-il raisonnable de s’y fier dans ce contexte ?
- Un médecin ayant reçu une formation similaire aurait-il pris la même décision ?
Cette distinction crée une zone d’ombre croissante à mesure que l’utilisation de l’IA se généralise. Les systèmes d’IA peuvent générer des résultats erronés qui peuvent néanmoins sembler faire autorité. Si un médecin suit une recommandation générée par l’IA qui entraîne un préjudice, il pourrait voir sa responsabilité engagée pour excès de confiance. D’un autre côté, s’il ignore un avertissement généré par l’IA qui s’avère par la suite exact, cette décision pourrait également être examinée comme une occasion manquée de respecter la norme de soins en constante évolution.
Au fur et à mesure que des affaires telles que Raine v. OpenAI sont portées devant les tribunaux, elles peuvent aider à clarifier la responsabilité des développeurs d’IA. L’IA peut éclairer les décisions, mais elle n’absorbe pas la responsabilité, selon un membre de Sermo ayant une expérience médico-légale. « Le rôle du médecin en tant que décideur clinique final ne peut être cédé […]. L’IA ne remplace ni sur le plan éthique ni sur le plan juridique l’expertise et le jugement.
Comment l' »hallucination » de l’IA peut-elle influencer votre prise de décision en tant que médecin ?
L’IA générative n’a pas les capacités de raisonnement d’un humain, souligne un membre de Sermo ayant une expérience médico-légale : « L’IA fonctionne par déclenchement d’algorithmes successifs… ce n’est aussi qu’un simulacre de pensée. »
Ces algorithmes sont tristement célèbres pour fournir en toute confiance de faux résultats, souvent appelés » hallucinations de l’IA » en médecine. Parfois, le logiciel fabrique même des résultats d’études ou invente des citations qui n’existent pas.
C’est pourquoi, dans la pratique, on attend généralement des cliniciens qu’ils vérifient les conclusions des algorithmes. Les plateformes médicales comme OpenEvidence, qui renvoient directement aux données cliniques, sont généralement un choix plus sûr que les outils grand public comme ChatGPT pour les requêtes cliniques complexes. « ChatGPT est connu pour être votre ami le plus nécessiteux, vous disant à quel point vos idées sont géniales et allant même jusqu’à formuler des affirmations selon lesquelles vous avez tort en affirmant à quel point votre question était brillante », met en garde un médecin sur Sermo.
Comment intégrer de manière responsable l’IA dans les soins médicaux ?
Les affaires existantes reposent toujours sur la norme du « médecin raisonnable dans des circonstances similaires », que l’IA ait été utilisée ou non », note M. DeMoss. Cette norme donne toujours la priorité au jugement humain sur les résultats algorithmiques. « Actuellement, il n’existe pas de doctrine ou de précédent permettant d’attribuer une responsabilité totale ou partielle au système d’IA et à son concepteur, même lorsque les recommandations de l’IA ont un impact direct sur les soins prodigués aux patients », explique M. DeMoss. « Mais, en prévision de ce qui va arriver, les cliniciens et les développeurs de technologies d’IA devraient tous deux évaluer leur couverture d’assurance responsabilité civile afin de déterminer ce qui est exclu de la couverture. »
Agir « raisonnablement » peut nécessiter un regard critique, car les modèles génératifs sont souvent construits pour être agréables, avec un parti pris de plaire aux gens. Dans un contexte clinique, cela peut se manifester par le fait que le logiciel génère de fausses données pour étayer le diagnostic présumé d’un médecin. L’utilisation responsable de l’IA « sera fondée sur la garantie de l’exactitude, ce qui signifie qu’il faudra compenser tout biais inhérent à un outil d’IA susceptible de plaire aux gens et même d’halluciner les réponses pour donner à l’utilisateur ce qu’il semble vouloir », déclare un médecin sur Sermo.
D’un point de vue juridique, le médecin est la dernière barrière pour éviter les dommages. Le fait de suivre un algorithme jusqu’à l’erreur est souvent considéré comme une défaillance de la supervision humaine. Le médecin est en position de « dernière chance » pour éviter qu’une entrée d’IA erronée ne se traduise par des soins réels », déclare un membre de Sermo ayant une expérience médico-légale.
Si vous n’êtes pas d’accord avec un résultat, votre raisonnement clinique peut vous protéger. « Si le médecin était au courant du résultat de l’IA mais ne pensait pas qu’il devait être suivi… la défense serait que le médecin doit montrer que le résultat de l’IA n’était probablement pas correct », explique un médecin dans le cadre du débat.
Principaux enseignements pour les médecins
Aux yeux de la loi, les algorithmes sont un outil complémentaire qui ne remplace pas le jugement clinique. Lorsque vous utilisez ces systèmes, une documentation solide comprend le « pourquoi », en mentionnant spécifiquement l’entrée algorithmique et en énonçant clairement votre raisonnement clinique pour la suivre ou la rejeter. « La documentation et le jugement critique seront plus importants que jamais », affirme un membre de Sermo.
Comme on l’a vu dans l’affaire Raine v. OpenAI, les plaignants peuvent poursuivre les entreprises technologiques en dommages-intérêts lorsqu’un médecin n’est pas impliqué. « La plainte principale dans cette affaire relève de la responsabilité stricte… traitant le ChatGPT comme un produit intrinsèquement défectueux », note un médecin sur Sermo. Dans les cas où un médecin a utilisé un outil d’IA, le cadre juridique principal est généralement la négligence professionnelle.
Les médecins ont un devoir indépendant et non délégable envers le patient. « Ces devoirs imposent une utilisation responsable de l’IA selon des normes professionnelles », écrit un membre de Sermo. Un autre membre de la communauté l’exprime ainsi : « Les médecins qui utilisent l’IA sont obligés d’être au minimum un arrêt de stationnement et au maximum une bande d’arrêt, en évaluant si l’apport de l’IA devrait être autorisé à avancer dans les soins. Un troisième membre met en garde contre le fait que « l’IA n’est qu’un outil de seuil qui fait ensuite l’objet d’un examen humain ».
Votre rôle en tant qu’arbitre clinique
Si l’intelligence artificielle est conçue pour être utile, elle n’est pas nécessairement exacte. Votre rôle en tant que médecin est d’agir en tant que « juge clinique », en filtrant les résultats algorithmiques à travers le prisme de l’expertise clinique afin de garantir la sécurité des patients.
Sur Sermo, les médecins naviguent ensemble sur ce nouveau territoire et discutent de la manière dont ils utilisent les outils d’IA tout en gardant un œil critique. Grâce à la communauté en ligne, les médecins tirent parti de l’expérience des uns et des autres, quelle que soit leur spécialité, leur pays ou leur système juridique. Inscrivez-vous gratuitement et entrez en contact avec plus d’un million de médecins dans le monde.
Cet article a fait l’objet d’une évaluation médicale par un membre de la communauté des médecins de Sermo.