Les outils d’IA rendent-ils les médecins moins performants ?

Illustration d'un ordinateur portable affichant un masque médical, entouré de deux médecins et d'icônes barrées, symbolisant les restrictions ou les limites des soins de santé en ligne.

L’intelligence artificielle est arrivée en médecine avec la promesse de révolutionner les soins aux patients, de réduire l’épuisement professionnel des médecins et d’améliorer la précision des diagnostics. Mais alors que les médecins s’appuient de plus en plus sur ces outils, il n’est pas certain qu’ils diminuent les compétences mêmes qu’ils sont censés soutenir.

Des données récentes provenant de la communauté mondiale de Sermo révèlent que certains médecins eux-mêmes sont préoccupés par l’adoption de l’IA dans les soins de santé. Dans un sondage, les membres ont fait part de leurs inquiétudes quant aux conséquences négatives potentielles, notamment la baisse de la vigilance ou l’augmentation des biais liés à l’automatisation (22 %), la déqualification des nouveaux médecins (22 %) et l’érosion du jugement clinique et de l’empathie (22 %).

Certains membres pensent même que l’utilisation de l’IA a déjà commencé à réduire leurs compétences. « Au début, l’IA m’a semblé être le collègue idéal », raconte un chirurgien oncologue. « Mais j’ai remarqué que je ne remettais plus en question mon jugement et que mes muscles diagnostiques s’émoussaient. Si nous ne faisons pas attention, nous nous réveillerons comme des presse-boutons glorifiés. »

Selon ce médecin, l’intégration réussie de l’IA nécessitera un équilibre réfléchi. Il s’agit d’embrasser l’avenir sans oublier ce qui rend les médecins indispensables.

L’IA en médecine est-elle une promesse ou un danger ?

La relation entre les soins de santé et l’intelligence artificielle a commencé il y a plusieurs décennies, mais les progrès récents en matière d’apprentissage automatique et de traitement du langage naturel ont accéléré l’adoption de cette technologie. Les dossiers médicaux électroniques (DME) ont introduit des systèmes d’aide à la décision de base dans les années 1990, mais les outils d’IA d’aujourd’hui peuvent interpréter l’imagerie médicale, prédire la détérioration du patient et même générer de la documentation clinique en temps réel.

Les schémas d’utilisation actuels des membres de Sermo révèlent l’adoption de divers outils. Selon une enquête menée auprès de plus de 2 000 médecins dans le monde, 23 % d’entre eux utilisent actuellement l’IA pour la rédaction de rapports cliniques, tandis que 23 % l’emploient comme aide au diagnostic (note : les personnes interrogées pouvaient choisir plus d’une option). Les outils d’estimation des risques comptent pour 13 % des utilisateurs, et 17 % utilisent l’IA pour des tâches administratives non cliniques.

Les perspectives des membres concernant l’impact de l’IA sur les résultats pour les patients restent prudemment optimistes. Si 15 % d’entre eux pensent que l’IA permettra d’obtenir de bien meilleurs résultats pour les patients et 54 % s’attendent à des résultats quelque peu meilleurs, 11 % ne voient aucune différence.

Les membres de Sermo ont un point de vue largement positif sur le potentiel des outils d’IA pour aider à lutter contre l’épuisement professionnel. Alors que l’épuisement professionnel touche près de la moitié des médecins américains selon des enquêtes récentes, 66 % des membres de Sermo interrogés sont d’accord pour dire que l’IA peut réduire de manière significative la charge administrative. Cela dit, l’IA ne peut pas tout faire, estime un médecin interne. « L’IA peut réduire la charge de documentation et analyser les tendances, mais elle ne doit jamais remplacer l’anamnèse, l’examen physique ou la connexion avec le patient », ont-ils partagé.

La déqualification et l’automatisation des médecins

Selon une étude de 2024, le concept de « déqualification » dans les soins de santé fait référence à « l’érosion progressive des compétences et de l’expertise cliniques » qui peut se produire lorsque les médecins deviennent trop dépendants des systèmes automatisés. Ce phénomène n’est pas propre à la médecine : les pilotes, par exemple, ont connu des problèmes similaires avec les systèmes de pilotage automatique.

La recherche suggère que la déqualification est une possibilité réelle. Une étude a montré qu’après que les médecins ont commencé à utiliser la détection des polypes assistée par l’IA, leurs taux de détection non assistée ont diminué.

Le biais d’automatisation représente un autre problème important. Ce phénomène psychologique se produit lorsque les humains se fient trop aux systèmes automatisés, acceptant leurs résultats sans évaluation critique suffisante. Dans le domaine de l’aviation, le biais d’automatisation a contribué à des accidents lorsque les pilotes n’ont pas su reconnaître et corriger les erreurs du système.

Les implications médicales sont tout aussi sérieuses. « L’IA est un copilote inestimable, mais les médecins doivent rester aux commandes pour éviter de perdre leur jugement clinique », insiste un radio-oncologue sur Sermo.

Compte tenu des risques, certains médecins préconisent la prudence. « L’IA est un outil, et tout outil peut être mal utilisé, que ce soit par maladresse ou par des personnes mal intentionnées », déclare un médecin spécialisé en dermatologie et en chirurgie oncologique sur Sermo. « Les médecins devraient limiter l’utilisation de l’IA à la documentation jusqu’à ce que les applications de soins aux patients soient prouvées sûres.

Les avantages de l’IA pour la formation des médecins, la confiance des patients et la transparence

Au milieu des préoccupations liées à la déqualification, la technologie de l’IA présente également des avantages potentiels. L’IA en radiologie a fait preuve d’une précision remarquable dans la détection de certains cancers, dépassant parfois les performances humaines. En pathologie, l’IA permet d’identifier des anomalies cellulaires qui pourraient échapper à l’œil humain.

Pour la formation médicale, l’IA offre des possibilités d’apprentissage sans précédent. Les résidents en radiologie peuvent s’entraîner à interpréter des cas avec un retour d’information immédiat de l’IA, ce qui accélère le développement de leur diagnostic. Les stagiaires en chirurgie peuvent utiliser des simulateurs alimentés par l’IA qui s’adaptent à leur niveau de compétence, offrant ainsi un enseignement personnalisé impossible à dispenser dans un cadre traditionnel.

Les patients peuvent apprécier que les médecins expliquent comment l ‘IA les aide dans leurs soins, la considérant comme une mesure de sécurité supplémentaire plutôt que comme un substitut au jugement humain. Les systèmes d’IA modernes fournissent de plus en plus souvent des résultats explicables, indiquant les caractéristiques qui ont influencé leurs recommandations. Cette transparence permet aux médecins d’évaluer les suggestions de l’IA de manière critique et d’expliquer le raisonnement aux patients. Lorsque les médecins indiquent clairement qu’ils utilisent l’IA comme un outil de vérification des faits et non pour le diagnostic initial, cela peut contribuer à renforcer la confiance des patients.

Certains médecins ont souligné l’importance d’utiliser les outils d’IA avec précaution, afin de tirer parti de leurs avantages sans en abuser. « La formation des médecins et l’évaluation par les pairs doivent s’adapter », écrit un médecin de famille sur Sermo. « Comme UpToDate, l’IA ne remplace pas le jugement ou l’expertise.

D’autres ont appelé à une réglementation et à des lignes directrices éthiques concernant l’utilisation de l’IA. « L’IA peut améliorer la précision et l’efficacité des diagnostics, mais une dépendance excessive risque d’entraîner une déqualification et une perte de confiance des patients », déclare un spécialiste de l’anesthésiologie et des soins intensifs sur Sermo. « Des directives éthiques sont essentielles.

Dans une enquête réalisée en 2024 par l’American Medical Association (AMA), les participants ont indiqué qu’une surveillance accrue était la principale mesure réglementaire qui permettrait aux médecins d’adopter plus facilement les outils d’IA. Dans un rapport publié la même année, l’AMA note qu’il n’existe pas de stratégie pangouvernementale de surveillance et de réglementation aux États-Unis, mais que le ministère américain de la santé et des services sociaux (HHS) a élaboré une stratégie générale pour une utilisation digne de confiance de l’IA.

Stratégies des médecins pour prévenir la déqualification

Si vous utilisez l’IA dans votre cabinet, vous pouvez prendre des mesures pour éviter la déqualification et, par extension, maintenir la confiance des patients. Voici quelques stratégies qui préservent le raisonnement clinique tout en tirant parti des avantages technologiques :

Questionnement critique

Un questionnement critique peut aider à prévenir les biais liés à l’automatisation. Avant d’accepter une recommandation de l’IA, posez-vous les questions suivantes : Pourquoi l’IA a-t-elle fait cette suggestion ? Cela correspond-il aux lignes directrices établies, à mon expérience clinique et au contexte spécifique de ce patient ? Cette approche considère l’IA comme un deuxième avis sophistiqué plutôt que comme une directive faisant autorité.

Poursuite de la pratique des compétences

Respectez le principe de « l’utiliser ou le perdre ». Même lorsque l’IA peut automatiser certaines tâches, les médecins peuvent tirer profit de l’exécution manuelle régulière des compétences de base. Cela peut signifier interpréter certaines études d’imagerie sans l’aide de l’IA ou effectuer des examens physiques avant d’examiner les évaluations générées par l’IA.

Formation continue

Vous pouvez lutter contre la déqualification en comprenant le fonctionnement et les limites des systèmes d’IA. Les programmes de formation médicale continue (FMC) proposent de plus en plus de contenus axés sur l’IA, mais vous devrez rechercher activement ces opportunités. Parmi les sujets abordés, citons la compréhension des biais des algorithmes, la reconnaissance des limites des systèmes et le maintien des compétences cliniques dans les environnements augmentés par l’IA.

Formation d’un diagnostic indépendant

L’établissement d’un diagnostic indépendant avant de consulter les recommandations de l’IA préserve les capacités de raisonnement clinique. Cette approche consiste à élaborer un diagnostic différentiel, un plan de traitement ou une interprétation avant d’examiner les suggestions de l’IA. L’IA sert alors à vérifier votre raisonnement plutôt qu’à le remplacer.

Consultation des pairs

Vous pouvez maintenir l’élément humain dans la prise de décision médicale grâce à la consultation par les pairs. Les cas complexes bénéficient de discussions entre collègues que l’IA ne peut pas reproduire.

Les communautés comme Sermo facilitent ces interactions entre pairs, permettant aux membres de discuter de cas difficiles et de partager leurs expériences avec les outils d’IA. « L’IA est un complément précieux, mais la dépendance pourrait nous faire perdre nos compétences cliniques », note un médecin de famille membre de l’association. « Nous vivons une période effrayante, et le fait de discuter avec des collègues m’aide à y faire face de manière réfléchie. »

Politiques de flux de travail

Intégrer des mesures de protection dans la pratique quotidienne. Il peut s’agir d’exigences de vérification indépendante des résultats obtenus par l’IA, de périodes programmées de pratique sans IA ou d’un examen obligatoire par les pairs des décisions assistées par l’IA dans les cas complexes. Vous pouvez vous référer aux cadres existants pour obtenir des conseils sur la sélection des modèles d’IA et leur mise en œuvre dans le respect de l’éthique.

Concilier l’efficacité des soins et l’art de la médecine

L’intégration de l’IA dans la pratique médicale crée une tension entre les gains d’efficacité et la préservation des éléments humains de la médecine. Si l’IA peut réduire le temps de documentation et rationaliser les tâches administratives, le risque est que les médecins perdent l’empathie, l’intuition et le lien personnel qui définissent l’excellence des soins.

Les systèmes d’IA, aussi sophistiqués soient-ils, ne peuvent pas reproduire l’intelligence émotionnelle nécessaire à une prise en charge efficace des patients. Sur Sermo, un psychiatre a souligné ce problème. « Les scribes d’IA sont des substituts à l’emporte-pièce qui risquent d’éroder la capacité des médecins à penser de manière critique tout en augmentant les coûts, les problèmes de confidentialité et les risques d’erreur. »

Cela dit, les médecins peuvent utiliser des stratégies de mise en œuvre pratiques pour aider à préserver la connexion humaine sans perdre les avantages. Certains médecins ont recours à un déploiement sélectif de l’IA. Plutôt que de mettre en œuvre l’IA dans tous les domaines de pratique simultanément, les médecins peuvent choisir des applications spécifiques dont les avantages l’emportent clairement sur les risques.

Les médecins urgentistes, par exemple, peuvent utiliser l’IA pour la documentation de triage tout en conservant les approches traditionnelles pour la communication avec les patients et la prise de décision clinique. Cette stratégie sélective leur permet de bénéficier des avantages de l’IA tout en préservant leurs compétences dans des domaines essentiels.

Les médecins peuvent simultanément maintenir la confiance en informant les patients sur l’IA. Les patients ont tendance à apprécier la transparence sur la manière dont la technologie contribue à leurs soins, en particulier lorsque les médecins présentent l’IA comme une mesure de sécurité supplémentaire.

Le défi va au-delà des choix individuels des médecins et englobe les politiques et les incitations du système de santé. Les organisations peuvent aider les médecins à utiliser l’IA pour améliorer plutôt que remplacer la connexion humaine, en reconnaissant que certaines inefficacités dans les soins de santé servent des objectifs relationnels importants. Cela pourrait signifier concevoir des flux de travail qui laissent intentionnellement de l’espace pour l’interaction directe avec le patient, ou donner la priorité à des programmes de formation qui aident les cliniciens à intégrer l’IA de manière responsable.

Ce que vous pouvez en tirer

Les médecins estiment que les outils d’IA offrent des avantages potentiels importants tout en présentant des risques pour les compétences cliniques et les relations avec les patients, selon les données de Sermo. Une intégration réfléchie peut aider à préserver l’essence humaine de la médecine tout en tirant parti de la puissance de la technologie pour améliorer les soins et réduire l’épuisement professionnel.

Plutôt que d’accepter passivement les recommandations de l’IA, vous pouvez vous engager activement avec ces outils, en comprenant leurs capacités et leurs limites. Vous pouvez rechercher des formations qui vous apprendront à utiliser les outils d’IA et à évaluer leurs résultats de manière critique, et maintenir la transparence avec vos patients sur la manière dont l’IA est utilisée dans votre cabinet et sur le moment où elle l’est.

La communauté Sermo joue déjà un rôle en facilitant les discussions entre pairs sur la mise en œuvre de l’IA. Vous pouvez y partager vos expériences, discuter des défis et développer les meilleures pratiques en collaboration avec d’autres médecins. Ces conversations peuvent aider la communauté médicale à apprendre collectivement à partir d’expériences vécues plutôt que de faire face individuellement aux défis de l’IA.

L’avenir de la médecine pourrait être marqué par la banalisation des outils d’IA au même titre que les systèmes de DSE ou d’imagerie numérique. La question n’est pas de savoir si les médecins utiliseront l’IA, mais comment ils intégreront les outils tout en préservant le jugement clinique, l’empathie et le lien humain.

Comme l’a conclu un médecin généraliste et urgentiste, « l’IA doit compléter et non remplacer la formation médicale et le jugement humain » : « L’IA doit compléter, et non remplacer, la formation médicale et le jugement humain. »

L’IA peut-elle remplacer les médecins ?

Non, l’IA ne peut pas remplacer complètement les médecins. Les éléments humains de la médecine, notamment l’empathie, l’intuition et les liens personnels, ne peuvent pas être reproduits par la technologie.

Comment l’IA améliore-t-elle les résultats des soins de santé ?

L’IA peut aider les médecins à détecter des anomalies qu’ils pourraient autrement manquer. Elle pourrait également contribuer à réduire l’épuisement professionnel des médecins, ce qui pourrait également conduire à de meilleurs résultats en matière de soins de santé.

Quels sont les risques de l’IA en médecine ?

L’IA pourrait contribuer à la déqualification ou à l’automatisation si les médecins n’utilisent pas les outils avec prudence.

Comment les médecins peuvent-ils éviter la déqualification grâce à l’IA ?

Les médecins peuvent éviter la déqualification en faisant preuve de jugement critique, en continuant à exercer leurs compétences manuelles, en poursuivant leur formation, en posant des diagnostics indépendamment de l’assistance de l’IA, en recourant à la consultation par les pairs et en adoptant des politiques de gestion des flux de travail comme garde-fous.

Quels sont les outils d’IA les plus utiles aux médecins aujourd’hui ?

Parmi les outils existants les plus prometteurs, on peut citer l’IA en radiologie qui permet de détecter certains cancers, l’IA en pathologie qui aide à identifier les anomalies cellulaires, et les simulateurs utilisés pour la formation.