KI-Tools halten Einzug in die klinische Praxis, aber die Ärzte begegnen ihnen nicht mit gleichem Vertrauen.
In einer kürzlich von Sermo durchgeführten Umfrage gaben 60% der Ärzte an, nur vage von OpenEvidence AI gehört zu haben, während 37% zugaben, dass sie überhaupt noch nichts davon gehört hatten. Auf die Frage, wie sie über die Rolle der KI bei der Entscheidungsfindung denken, äußerten die meisten jedoch ein gewisses Maß an Offenheit: 20% sind sehr positiv eingestellt, 54% sind vorsichtig offen, während 21% irgendwo zwischen besorgt und skeptisch liegen.
Die Kommentare der Mitglieder spiegeln diese Spaltung wider. Ein Allgemeinmediziner sagte: „OpenEvidence AI ist wie ein erstklassiger Forschungsassistent… eine enorme Zeitersparnis… hilft uns, effizienter und präziser zu arbeiten und auf dem Laufenden zu bleiben, so dass wir uns auf das Wesentliche konzentrieren können: unsere Patienten.“ Ein Psychiater wies jedoch auf die Kehrseite hin: „Theoretisch ist das toll, aber wer bereitet die Datenbank vor? Wer überprüft sie… Gibt es Verzerrungen? Was sind die rechtlichen Auswirkungen?“
In diesem Artikel werden diese Spannungen anhand von Sermo-Umfragedaten und Einblicken aus der Community aufgezeigt, um zu untersuchen, was Ärzte wirklich denken.
Was ist OpenEvidence?
OpenEvidence AI wurde als Entscheidungshilfe für Kliniker entwickelt, um Fragen zur Behandlung mit evidenzbasierten Empfehlungen zu beantworten. Sie bezieht sich ausschließlich auf vertrauenswürdige, von Experten geprüfte Quellen wie PubMed und wichtige Leitlinien und wurde von Forschern aus Harvard und dem MIT im Rahmen des Mayo Clinic Platform Accelerate Programms entwickelt.
Der Zugang ist auf geprüfte Kliniker beschränkt. Ziel ist es, die Überprüfung der Literatur und die Einsicht in unterstützende Zitate zu beschleunigen und zu erleichtern. Erste Auswertungen in der Primärversorgung zeigen, dass OpenEvidence klare, relevante Antworten liefert, die das Urteil des Arztes eher stützen als ersetzen.
Wie viele Ärzte verwenden OpenEvidence? Nun, die Akzeptanz steigt bereits. Mitte 2025 gaben mehr als 40 % der Ärzte in den USA an, OpenEvidence täglich zu nutzen, und es ist inzwischen in mehr als 10.000 Krankenhäusern und medizinischen Zentren im Einsatz. Bei den Sermo-Mitgliedern sieht es mit der Bekanntheit ähnlich aus: 60% sagen, dass sie zumindest davon gehört haben. Aber Bekanntheit ist nicht immer gleichbedeutend mit Akzeptanz, und die Ärzte nutzen es auf unterschiedliche Weise.
In unserer Umfrage bezeichneten 21% der Befragten die Software als nützliches Werkzeug zur Unterstützung von Entscheidungen. Ein Kinderarzt sagte: „Evidenzbasierte Medizin ist ein Grundpfeiler unseres klinischen Scharfsinns und OpenEvidence AI kann dies auf den Stationen und am Krankenbett zugänglich machen. Weitere 24% sagten, dass es Zeit spart, wie ein Kinderarzt sagte: „Es rationalisiert klinische Entscheidungen mit schnellen, evidenzbasierten Antworten, verbessert die Genauigkeit und spart Zeit.“ Doch selbst befürwortende Ärzte fügen Vorbehalte hinzu. So sagte ein Allgemeinmediziner: „Ich verwende OpenEvidence häufig als Hilfsmittel… aber ich werde einen zusätzlichen Schritt unternehmen, um Informationen zu überprüfen, wenn ich einen Verdacht habe.“ Andere bleiben skeptisch: 13% der Befragten bezeichnen OpenEvidence als zu neu oder ungetestet: „KI sollte nur zu Informationszwecken eingesetzt werden. Klinisches Urteilsvermögen ist der Schlüssel zur Patientenversorgung“, so ein Onkologe.
Im Moment gewinnt OpenEvidence an Boden, weil es Effizienz und Zugang verspricht, aber das Vertrauen ist aufgrund der vielen Bedenken, die Ärzte gegenüber der Technologie haben, noch bedingt.
Wie funktioniert OpenEvidence?
OpenEvidence ist nicht nur eine einfache Suchmaschine, sondern eine Plattform zur Unterstützung klinischer Entscheidungen, die die Funktionalität einer medizinischen Suchmaschine mit KI-gesteuerter Synthese und Schlussfolgerungen verbindet. Ärzte können Fragen in natürlicher Sprache stellen, z. B. „Was sind die neuesten Erkenntnisse über den Einsatz von SGLT2-Hemmern bei Herzinsuffizienz bei Nicht-Diabetikern?“ – und anstatt eine lange Liste von Links zu erstellen, durchsucht die Plattform Tausende von begutachteten Studien, Leitlinien und systematischen Übersichten, um eine prägnante, referenzierte Zusammenfassung zu erstellen.
Der entscheidende Unterschied zu Tools wie PubMed oder Google Scholar ist, dass OpenEvidence über die Literatursuche hinausgeht. Anstatt den Arzt zu zwingen, Dutzende von Zusammenfassungen zu durchsuchen und die Beweise manuell zu interpretieren, hebt es die Stärke und Richtung der Ergebnisse hervor, zeigt Konsenspunkte oder Kontroversen auf und, was besonders wichtig ist, übersetzt diese Beweise in umsetzbare klinische Vorschläge. Wenn beispielsweise aktuelle Leitlinien eine bestimmte Medikamentenklasse bei einer bestimmten Patientengruppe unterstützen, zeigt OpenEvidence diese Empfehlung direkt an, zusammen mit der entsprechenden Evidenzbasis. Das Tool spart den Ärzten nicht nur Zeit, sondern unterstützt direkt die evidenzbasierte Entscheidungsfindung am Ort der Behandlung und bietet eine klinische Orientierungshilfe, für die herkömmliche Suchmaschinen nicht konzipiert wurden.
Ein weiterer Vorteil ist, dass OpenEvidence im Gegensatz zu universellen KI-Chatbots wie ChatGPT oder Gemini, die plausible, aber ungeprüfte (oder häufig halluzinierte) Antworten generieren können, ausschließlich auf vertrauenswürdige medizinische Fachliteratur trainiert wird und eine transparente Quellenangabe beibehält. Jede Aussage ist mit Primärstudien oder Leitlinien verknüpft, so dass Ärzte die Evidenz überprüfen können, bevor sie sie anwenden.
Kliniker nutzen OpenEvidence, um evidenzbasierte Behandlungsoptionen zu identifizieren und ihre Entscheidungen mit klinischen Leitlinien und Studien abzugleichen, wie in einer aktuellen Studie beschrieben.
Wichtigste Bedenken zu OpenEvicence und klinischer KI
Bei aller Begeisterung für OpenEvidence sind die meisten Ärzte auf Sermo immer noch vorsichtig.
Auf die Frage, welche Bedenken sie gegen den Einsatz von KI-Systemen wie OpenEvidence in der Praxis haben, verwiesen 44 % auf die Genauigkeit und das Risiko von Fehlinformationen, 19 % auf den Mangel an ärztlicher Aufsicht oder Erklärbarkeit, 16 % auf rechtliche oder Haftungsrisiken und 7 % auf das Vertrauen und die Akzeptanz der Patienten. Nur 6 % gaben an, keine größeren Bedenken zu haben, während 8 % zugaben, dass sie sich mit dieser Frage noch nicht wirklich beschäftigt haben. Zusammengenommen zeigen diese Ergebnisse, dass der Weg zu einer breiteren Akzeptanz weniger davon abhängt, neue Funktionen hinzuzufügen, sondern vielmehr davon, die grundlegenden Fragen des Vertrauens, der Verantwortung und der Rechenschaftspflicht zu klären.
Genauigkeit ist nicht verhandelbar. Ärzte werden OpenEvidence erst dann in großem Umfang einsetzen, wenn sie sicher sind, dass die Ergebnisse sowohl zuverlässig als auch aktuell sind. Ein Allgemeinmediziner erklärte: „Ich habe versucht, KI-generierte Informationen in der Patientenversorgung zu verwenden, habe aber Ungenauigkeiten und falsche oder veraltete Informationen festgestellt. Es muss noch mehr an der Validierung und Überprüfung gearbeitet werden, bevor ich KI regelmäßig im Praxisalltag einsetzen werde.“ Bei der Genauigkeit geht es darum, das Vertrauen aufrechtzuerhalten, und wie ein anderer Arzt für Innere Medizin es unverblümt formulierte: „Ich vertraue ihr nicht, denn wenn sie falsch liegt, ist sie nervtötend selbstsicher in ihrer falschen Antwort.“ Übermäßiges Vertrauen in eine ungenaue Antwort kann gefährlicher sein als Ungewissheit, denn es besteht die Gefahr, dass Kliniker dazu verleitet werden, auf der Grundlage fehlerhafter Informationen zu handeln.
Andere sorgen sich nicht nur um die Korrektheit, sondern auch um die Menge der Informationen, die OpenEvidence produziert. Die Fähigkeit der KI, schnell ausgefeilte, gut geschriebene Inhalte zu erstellen, birgt ihre eigenen Risiken. Ein Anästhesist warnte: „Angesichts der Tendenz der KI, Zusammenhänge zu finden, die möglicherweise nicht einmal eine solide theoretische Grundlage haben, besteht ein unbekanntes Risiko der Desinformation. Auch die Schnelligkeit der Informationsgenerierung wäre ein Problem. Quantität und überprüfbare Qualität sind also ein Problem.“ Mit anderen Worten: Geschwindigkeit ohne rigorose Filterung ist wertlos und trägt nur zum Rauschen bei.
Als nächstes folgen Aufsicht und Transparenz. Fast jeder fünfte Arzt in unserer Umfrage gab an, dass der Mangel an ärztlicher Aufsicht ein großes Problem darstellt. Ein Allgemeinmediziner sagt: „KI in der medizinischen Praxis ist hilfreich, aber die fehlende ärztliche Aufsicht ist immer noch ein Problem.“ Andere betonten, wie wichtig es ist, nicht nur zu wissen, was das Tool sagt, sondern auch, wie es dazu gekommen ist. Wie ein Stomatologe anmerkte, „hängt der Nutzen von der Transparenz der Quellen und der Argumentationsprozesse ab“. Die Ärzte wollen, dass die Beweiskette sichtbar ist und nicht hinter einer Blackbox versteckt wird.
Die Haftung ist ein weiterer Knackpunkt. Selbst wenn OpenEvidence in 99 % der Fälle die richtige Entscheidung trifft, wissen die Ärzte, dass sie die Verantwortung tragen, wenn etwas schief geht. „Wenn Sie sich dazu hinreißen lassen und versagen, können Sie sich vor Gericht nicht damit verteidigen, dass die künstliche Intelligenz schuld war“, erklärte ein Arzt. Ein anderer Orthopäde schlug in dieselbe Kerbe: „Die Unterschrift am Ende des Diagnoseberichts ist immer MEINE und ich bin für medizinisch-rechtliche Zwecke verantwortlich.“ Diese Punkte verdeutlichen, warum die Fähigkeit, die medizinische Praxis rechtlich zu verteidigen, ein Hindernis für die Einführung von KI bleibt, und solange es keine klaren Rahmenbedingungen dafür gibt, wer (oder was) haftbar ist, werden einige Ärzte die Finger davon lassen.
Auch die Perspektive der Patienten darf nicht übersehen werden. Zwar haben nur 7 % der von Sermo Befragten das Vertrauen der Patienten direkt angesprochen, aber die Kommentare der Community zeigen, dass dieses Thema bei den Ärzten ein großes Gewicht hat. „Ich denke, dass es das Potenzial hat, von Big Pharma oder rassistischen Vorurteilen ausgenutzt zu werden, was die KI bereits bewiesen hat“, warnte ein Augenarzt, was auf einen allgemeineren Punkt hinweist, der das Vertrauen der Patienten mit der Integrität des Systems selbst verbindet.
Ein anderer GP brachte das menschliche Element in einfacheren Worten auf den Punkt: „Die Wahrheit ist, dass KI vielversprechend ist, aber sie sollte niemals die menschliche Wärme ersetzen. Als Werkzeug ist sie großartig, aber nicht als Ersatz für die traditionelle Medizin.“ In der Tat brauchen die Patienten die Gewissheit, dass die klinische Versorgung weiterhin auf menschlichem Mitgefühl beruht.
Eine kleine Minderheit, 6 %, gab an, keine größeren Bedenken zu haben. Für sie überwiegen die Vorteile bereits die Risiken. Ein Psychiater drückte es so aus: „Ich bin ein großer Fan von KI in meiner Praxis. Sie macht meine Arbeit leichter.“ Diese Stimmen zeigen, wohin die Reise geht, auch wenn noch nicht alle ihre Kollegen bereit sind, ihnen zu folgen.
Insgesamt deuten die Daten darauf hin, dass Ärzte in OpenEvidence Potenzial sehen, aber sie brauchen den Beweis, dass es sie nicht Risiken aussetzt oder das Vertrauen der Patienten untergräbt. Solange die rechtlichen Grundlagen nicht vorhanden sind, wird OpenEvidence einfach nicht in vollem Umfang oder – wie bei einigen Ärzten – überhaupt nicht genutzt werden.
Was würde mehr Ärzte dazu ermutigen, die Technologie einzusetzen?
Wenn Genauigkeit und Verantwortlichkeit die größten Hindernisse sind, was würde dann den Ausschlag für die Annahme geben? Die Daten der Sermo-Umfrage deuten auf eine eindeutige Antwort hin: Nachweis und Vertrauen. Die wichtigste Forderung der Ärzte war eine von Experten begutachtete Validierung. 37 % der Befragten gaben an, dass dies der Faktor ist, der sie am meisten ermutigen würde. Ein Internist drückte es so aus: „Es könnte als Hilfsmittel verwendet werden, sobald die Genauigkeit verifiziert wurde“. Solange die Zuverlässigkeit nicht in realen Studien bestätigt wird, sind viele Ärzte nicht bereit, sich im Alltag darauf zu verlassen.
Dicht dahinter folgt die institutionelle Unterstützung (21%). Die Ärzte wünschen sich, dass Krankenhäuser, medizinische Fachgesellschaften oder angesehene KOLs hinter dem Tool stehen. Ein Radiologe brachte es auf den Punkt: „Die Validität und Zuverlässigkeit des Instruments muss von vertrauenswürdigen Institutionen und wichtigen Meinungsführern in verschiedenen klinischen Umgebungen überprüft und bestätigt werden, bevor es auf breiter Basis angenommen wird.“ Befürwortungen wie diese helfen dabei, die Verantwortung für die KI zu teilen.
An zweiter Stelle steht die Integration in die elektronische Patientenakte (17%), und das aus gutem Grund. Ein Allgemeinmediziner sagte: „OpenEvidence lässt sich in die elektronische Patientenakte integrieren und schlägt auf der Grundlage der Patientendaten relevante Untersuchungen und mögliche Diagnosen vor.“ Die Einbettung des Tools in bestehende Arbeitsabläufe macht es am Ort der Behandlung wirklich nützlich.
Zeitsparende Funktionen (16%) sind ebenfalls wichtig, aber die Ärzte wollen nicht, dass die Geschwindigkeit auf Kosten der Genauigkeit oder der Übersicht geht. Eine kleine Minderheit (8 %) lehnt das System zwar weiterhin strikt ab, doch scheint dies die Ausnahme zu sein.
Für die meisten Ärzte ist der Weg nach vorne mit KI einfach: Beweisen Sie Genauigkeit, schaffen Sie Vertrauen durch Validierung und Empfehlungen und machen Sie das Tool einfach in alltäglichen Systemen nutzbar.
Ihr Mitbringsel
Ärzte auf Sermo sehen OpenEvidence AI als vielversprechend, aber noch nicht bewährt an. Seine größten Stärken, wie Schnelligkeit, Zugang zu Beweisen und Unterstützung bei der Entscheidungsfindung, werden durch Bedenken hinsichtlich der Genauigkeit und der Frage, wer bei Fehlern haften sollte, abgeschwächt.
Die meisten Ärzte betrachten es nicht als Ersatz für das klinische Urteilsvermögen, sondern eher als Ergänzung, die Zeit sparen und ihr Denken entlasten kann, wenn sie validiert und verantwortungsvoll integriert wird.
Mit peer-reviewed Validierung, institutioneller Unterstützung und nahtloser Workflow-Integration könnten sich die Meinungen über OpenEvidence von vorsichtiger Neugier zu einem vertrauenswürdigen, alltäglichen Werkzeug für Ärzte entwickeln.
Beteiligen Sie sich an der Diskussion auf Sermo
Wie nutzen Sie KI-Tools wie OpenEvidence in der Praxis, oder warum halten Sie sich zurück? Teilen Sie Ihre Erfahrungen und lernen Sie von Ihren Kollegen auf Sermo.