Gli strumenti di intelligenza artificiale si stanno facendo strada nella pratica clinica, ma i medici non li affrontano con la stessa fiducia.
In un recente sondaggio Sermo, il 60% dei medici ha dichiarato di aver sentito parlare solo vagamente di OpenEvidence AI, mentre il 37% ha ammesso di non averne mai sentito parlare. Tuttavia, quando è stato chiesto loro cosa pensano del ruolo dell’IA nel processo decisionale, la maggior parte ha espresso un certo livello di apertura: il 20% è molto favorevole, il 54% è cautamente aperto, mentre il 21% si colloca tra il preoccupato e lo scettico.
I commenti dei membri evidenziano questa suddivisione. Un medico di base ha dichiarato: “L’AI di OpenEvidence è come avere un assistente di ricerca di alto livello… un enorme risparmio di tempo… ci aiuta a essere più efficienti, precisi e aggiornati, lasciandoci liberi di dedicarci a ciò che è più importante: i nostri pazienti”. Ma uno psichiatra ha sollevato il rovescio della medaglia: “In teoria è fantastico, ma chi prepara il database? Chi controlla… Ci sono pregiudizi? Quali sono le ramificazioni legali?”.
Questo articolo analizza queste tensioni, utilizzando i dati dei sondaggi Sermo e le opinioni della comunità per capire cosa pensano davvero i medici.
Che cos’è OpenEvidence?
OpenEvidence AI è uno strumento di supporto decisionale rivolto ai medici, progettato per rispondere alle domande dei pazienti con raccomandazioni basate sulle evidenze. Si basa esclusivamente su fonti affidabili e sottoposte a revisione paritaria, come PubMed e le principali linee guida, ed è stata sviluppata da ricercatori di Harvard e del MIT attraverso il programma Mayo Clinic Platform Accelerate.
L’accesso è limitato ai medici verificati, con l’obiettivo di rendere più semplice e veloce la revisione della letteratura e la visualizzazione delle citazioni a supporto. Le prime valutazioni nell’ambito delle cure primarie dimostrano che OpenEvidence fornisce risposte chiare e pertinenti che tendono a sostenere il giudizio del medico piuttosto che a sostituirlo.
Allora, quanti medici usano OpenEvidence? Beh, l’adozione è già in aumento. A metà del 2025, oltre il 40% dei medici statunitensi ha dichiarato di utilizzarlo quotidianamente e ora è integrato in più di 10.000 ospedali e centri medici. Tra i membri di Sermo, la consapevolezza è simile: il 60% dichiara di averne almeno sentito parlare. Ma consapevolezza non significa sempre adozione, e i medici la utilizzano in modi diversi.
Nel nostro sondaggio, il 21% l’ha descritta come uno strumento utile per supportare le decisioni, con uno specialista pediatrico che ha osservato: “La medicina basata sull’evidenza è un principio del nostro acume clinico e OpenEvidence AI può renderla accessibile nei reparti e al capezzale”. Un altro 24% ha dichiarato che fa risparmiare tempo, con un pediatra che ha detto: “Semplifica le decisioni cliniche con risposte rapide e basate sull’evidenza, migliorando l’accuratezza e risparmiando tempo”. Tuttavia, anche i medici favorevoli aggiungono delle avvertenze, con un medico di base che afferma: “Uso spesso OpenEvidence come strumento… ma farò un passo in più per verificare le informazioni se ho dei sospetti”. Altri rimangono scettici, con il 13% che la definisce troppo nuova o non testata: “L’IA dovrebbe essere utilizzata solo a scopo informativo. Il giudizio clinico è la chiave per la cura del paziente”, afferma un oncologo.
Per ora, OpenEvidence sta guadagnando terreno perché promette efficienza e accesso, ma la fiducia è ancora condizionata dalle molte preoccupazioni che i medici nutrono nei confronti di questa tecnologia.
Come funziona OpenEvidence?
OpenEvidence non è un semplice motore di ricerca, ma una piattaforma di supporto alle decisioni cliniche che unisce le funzionalità di un motore di ricerca medico con la sintesi e il ragionamento guidato dall’intelligenza artificiale. I medici possono porre domande in linguaggio naturale – ad esempio: “Quali sono le ultime evidenze sull’uso degli inibitori SGLT2 per l’insufficienza cardiaca nei pazienti non diabetici?” – e invece di produrre un lungo elenco di link, la piattaforma scansiona migliaia di studi, linee guida e revisioni sistematiche peer-reviewed per generare un riassunto conciso e referenziato.
La differenza fondamentale rispetto a strumenti come PubMed o Google Scholar è che OpenEvidence va oltre il reperimento della letteratura. Invece di richiedere al medico di passare al setaccio decine di abstract e di interpretare manualmente le evidenze, OpenEvidence evidenzia la forza e la direzione dei risultati, fa emergere i punti di consenso o di controversia e, cosa fondamentale, traduce queste evidenze in suggerimenti clinici attuabili. Ad esempio, se le attuali linee guida sostengono una determinata classe di farmaci in una determinata popolazione di pazienti, OpenEvidence farà emergere direttamente questa raccomandazione, insieme alle prove di efficacia a supporto. Questo strumento non si limita a far risparmiare tempo ai medici, ma supporta direttamente il processo decisionale basato sulle evidenze nel punto di cura, offrendo un livello di orientamento clinico che i motori di ricerca tradizionali non sono mai stati progettati per fornire.
Un altro vantaggio è che, a differenza di chatbot AI generici come ChatGPT o Gemini, che possono generare risposte plausibili ma non verificate (o spesso allucinate), OpenEvidence si basa esclusivamente su letteratura medica affidabile e mantiene una provenienza trasparente. Ogni affermazione è collegata a studi primari o linee guida, consentendo ai medici di convalidare le prove prima di applicarle.
I medici utilizzano OpenEvidence per identificare le opzioni terapeutiche supportate dall’evidenza e per effettuare controlli incrociati delle loro decisioni rispetto alle linee guida e agli studi clinici, come descritto in un recente studio.
Le principali preoccupazioni su OpenEvicence e l’IA clinica
Nonostante l’entusiasmo intorno a OpenEvidence, la maggior parte dei medici di Sermo si avvicina ancora con cautela.
Quando è stato chiesto loro quali fossero le preoccupazioni riguardo all’utilizzo di sistemi di IA come OpenEvidence nella pratica, il 44% ha sottolineato l’accuratezza e il rischio di disinformazione, il 19% ha evidenziato la mancanza di supervisione da parte dei medici o di spiegazioni, il 16% ha sollevato rischi legali o di responsabilità e il 7% ha evidenziato la fiducia e l’accettazione dei pazienti. Solo il 6% ha dichiarato di non avere grandi preoccupazioni, mentre l’8% ha ammesso di non aver ancora preso in considerazione la questione. L’insieme di questi risultati dimostra che la strada per un’adozione più ampia dipende meno dall’aggiunta di nuove funzionalità e più dall’affrontare le questioni fondamentali della fiducia, della responsabilità e dell’affidabilità.
L’accuratezza non è negoziabile. I medici non adotteranno OpenEvidence su larga scala finché non saranno certi che i suoi risultati siano affidabili e aggiornati. Come ha spiegato un medico di base: “Ho provato a utilizzare le informazioni generate dall’IA per la cura dei pazienti, ma ho notato imprecisioni e informazioni false o non aggiornate. Prima di utilizzare regolarmente l’IA nella pratica quotidiana, è necessario lavorare ancora sulla convalida e sulla revisione”. L’accuratezza è una questione di fiducia e, come ha detto senza mezzi termini un altro medico di Medicina Interna, “non mi fido perché quando sbaglia è fastidiosamente sicuro della sua risposta sbagliata”. L’eccessiva fiducia in una risposta imprecisa può essere più pericolosa dell’incertezza, perché rischia di convincere i medici ad agire sulla base di informazioni errate.
Altri si preoccupano non solo della correttezza, ma anche del volume di informazioni che OpenEvidence produce. La capacità dell’IA di generare rapidamente contenuti curati e ben scritti crea i suoi rischi. Come ha avvertito un anestesista, “data la tendenza dell’IA a trovare connessioni che potrebbero non avere nemmeno una solida base teorica… c’è un rischio sconosciuto di disinformazione”. Anche la rapidità di generazione delle informazioni sarebbe un problema. Quindi la quantità e la qualità verificabile sono un problema”. In altre parole, la velocità senza un filtro rigoroso non dà alcun valore e si aggiunge semplicemente al rumore.
La supervisione e la trasparenza vengono dopo. Quasi un medico su cinque nel nostro sondaggio ha dichiarato che la mancanza di supervisione da parte dei medici è un problema importante. Un medico di base afferma: “L’intelligenza artificiale nella pratica medica è utile, ma la mancanza di supervisione da parte dei medici è ancora un problema”. Altri hanno sottolineato l’importanza di sapere non solo cosa dice lo strumento, ma anche come ci è arrivato. Come ha osservato uno stomatologo, “la sua utilità dipenderà… dalla trasparenza delle sue fonti e dei suoi processi di ragionamento”. I medici vogliono che la catena di prove sia visibile, non sepolta dietro una scatola nera.
La responsabilità è un altro punto critico. Anche se OpenEvidence fa la scelta giusta il 99% delle volte, i medici sanno che quando qualcosa va storto, la responsabilità ricade comunque su di loro. “Se ti lasci trasportare e fallisci, non puoi difenderti in tribunale dicendo che è colpa dell’intelligenza artificiale”, ha spiegato un medico di base. Un altro chirurgo ortopedico si è espresso sullo stesso punto: “La firma in calce al referto diagnostico è sempre la MIA e sono io il responsabile ai fini medico-legali”. Questi punti evidenziano perché la capacità di difendere legalmente la pratica medica rimane un ostacolo all’adozione dell’intelligenza artificiale e, finché non ci saranno chiari quadri di riferimento per chi (o cosa) è responsabile, alcuni medici non la toccheranno.
Anche il punto di vista dei pazienti non può essere trascurato. Sebbene solo il 7% degli intervistati da Sermo abbia segnalato direttamente la fiducia dei pazienti, i commenti della comunità mostrano che questo aspetto pesa molto sulla mente dei medici. “Penso che possa essere sfruttata da Big Pharma o da pregiudizi razziali, cosa che hanno già dimostrato che l’intelligenza artificiale è in grado di fare”, ha avvertito un oftalmologo, che si riferisce a un punto più ampio: collegare la fiducia dei pazienti all’integrità del sistema stesso.
Un altro GP ha colto l’elemento umano in termini più semplici: “La verità è che l’IA è promettente, ma non dovrebbe mai sostituire il calore umano. Come strumento è ottimo, ma non può sostituire la medicina tradizionale”. In effetti, i pazienti hanno bisogno di essere rassicurati sul fatto che l’assistenza clinica rimanga fondata sulla compassione umana.
Infine, una piccola minoranza, il 6%, non ha espresso alcuna preoccupazione. Per loro, i benefici superano già i rischi. Come ha detto uno psichiatra: “Sono un grande fan dell’IA nella mia pratica. Rende il mio lavoro più facile”. Queste voci mostrano la direzione che sta prendendo la traiettoria, anche se non tutti i loro colleghi sono ancora pronti a seguirla.
Nel complesso, i dati suggeriscono che i medici vedono un potenziale in OpenEvidence, ma hanno bisogno di prove che non li espongano a rischi o che non erodano la fiducia dei pazienti. Fino a quando non ci saranno le basi legali, OpenEvidence non verrà utilizzata al massimo, o come nel caso di alcuni medici, non verrà utilizzata affatto.
Cosa incoraggerebbe un maggior numero di medici ad adottare questa tecnologia?
Se l’accuratezza e la responsabilità sono i maggiori ostacoli, cosa potrebbe far pendere la bilancia verso l ‘adozione? I dati del sondaggio Sermo indicano una risposta chiara: la prova e la fiducia. La richiesta principale dei medici è stata la convalida da parte di esperti, con il 37% che ha dichiarato che è il fattore che li incoraggerebbe di più. Come ha detto un internista, “potrebbe essere utilizzato come strumento una volta verificata l’accuratezza”. Finché l’affidabilità non sarà confermata da studi reali, molti medici non sono pronti ad affidarsi a questo strumento giorno per giorno.
Segue a ruota l’approvazione istituzionale (21%). I medici vogliono che gli ospedali, le società mediche o i KOL più rispettati sostengano lo strumento. Un radiologo ha riassunto bene la questione: “La validità e l’affidabilità dello strumento devono essere verificate e approvate da istituzioni fidate e da key opinion leader in diversi contesti clinici prima di essere adottate su larga scala”. Approvazioni come queste aiutano a condividere la responsabilità di affidarsi all’IA.
L’integrazione con l’EHR è la seconda (17%), e per una buona ragione. Come ha notato un medico di base, “OpenEvidence si integra con le cartelle cliniche elettroniche, suggerendo ricerche pertinenti e potenziali diagnosi in base alle informazioni del paziente”. L’integrazione dello strumento nei flussi di lavoro esistenti è ciò che lo rende veramente utile nel punto di cura.
Anche le funzioni per risparmiare tempo (16%) sono importanti, ma i medici non vogliono che la velocità vada a scapito dell’accuratezza o della supervisione. Anche se una piccola minoranza (8%) rimane fermamente contraria, sembra essere un’eccezione.
Per la maggior parte dei medici, la strada da percorrere con l’IA è semplice: dimostrare l’accuratezza, costruire la fiducia attraverso la convalida e le approvazioni e rendere lo strumento facile da usare all’interno dei sistemi quotidiani.
Il tuo takeaway
I medici di Sermo considerano l’AI di OpenEvidence promettente ma non ancora provata. I suoi maggiori punti di forza, come la velocità, l’accesso alle prove e il supporto al processo decisionale, sono mitigati dalle preoccupazioni sulla sua accuratezza e su chi dovrebbe essere responsabile se sbaglia.
La maggior parte dei medici non la vede come un sostituto del giudizio clinico, ma piuttosto come un supplemento che potrebbe far risparmiare tempo e ridurre il carico di pensieri se convalidato e integrato in modo responsabile.
Con la convalida di esperti, il sostegno istituzionale e l’integrazione del flusso di lavoro, le opinioni su OpenEvidence potrebbero passare da una cauta curiosità a uno strumento di fiducia quotidiano per i medici.
Partecipa alla conversazione su Sermo
Come utilizzi nella pratica strumenti di AI come OpenEvidence o perché ti stai trattenendo? Condividi la tua esperienza e impara dai tuoi colleghi su Sermo.