
Tra un paziente e l’altro, puoi passare dalla cartella clinica all’assistente AI, chiedendogli di riassumere una complessa anamnesi, di redigere un ricorso per l’autorizzazione preventiva e di segnalare potenziali interazioni farmacologiche. Pochi minuti dopo, l’assistente suggerisce diagnosi differenziali basate su sintomi che un tempo avrebbero richiesto di sfogliare materiale di riferimento o di affidarsi esclusivamente alla memoria. L’efficienza è innegabile, ma cosa deve essere verificato in modo indipendente, cosa deve essere inserito nella cartella clinica e, infine, chi è responsabile se qualcosa va storto?
Man mano che l ‘intelligenza artificiale viene integrata nei flussi di lavoro clinici, i medici si trovano a navigare in un panorama legale mutevole in cui la linea di demarcazione tra assistenza e responsabilità è ancora in via di definizione. “Resta da vedere come l’uso dell’intelligenza artificiale influisca sulla responsabilità per negligenza medica”, spiega a Sermo Lauren DeMoss, avvocato specializzato in assistenza sanitaria e co-presidente della divisione di Maynard Nexsen che si occupa di assistenza sanitaria e scienze della vita. “Non c’è molta giurisprudenza, ma possiamo sicuramente aspettarci di vederne di più nei prossimi anni”.
I medici di Sermo discutono di quello che considerano un uso responsabile degli strumenti di intelligenza artificiale. Alcuni li ritengono generalmente affidabili. “Ho utilizzato OpenEvidence (una collaborazione tra JAMA e NEJM) e di tanto in tanto vi ho fatto riferimento, soprattutto quando i pazienti erano scettici nei confronti delle raccomandazioni”, scrive un medico. “Fornisce link ai dati di supporto per le sue risposte e l’ho trovato privo di allucinazioni (finora)”.
Altri membri del Sermo sottolineano i limiti. “È incomprensibile lasciarsi trasportare da qualcosa di non dimostrato, soprattutto nel nostro campo”, scrive un medico. “Tuttavia, riconosco l’utilizzo dell’IA per raccogliere informazioni specialistiche nei miei libri; non concepirei il noioso metodo di ricerca di citazioni, ristampe e riassunti su un argomento specifico senza questa procedura”. Un altro membro di Sermo ritiene che l’IA sia “utile per la consulenza, ma non può diventare il principale strumento decisionale”.
Con la diffusione dell’IA in medicina, si pone la questione se i medici possano essere citati in giudizio se seguono, o ignorano, una diagnosi suggerita da un algoritmo. Esplora il panorama in evoluzione della responsabilità dell’IA in campo medico e come l’IA può influenzare gli standard di cura.
Disclaimer: questo articolo riflette conversazioni reali che si svolgono all’interno della comunità di medici Sermo ed è pubblicato solo a scopo educativo. Non costituisce una consulenza legale o medica. Le informazioni fornite sono di carattere generale; le leggi che regolano la negligenza medica, gli standard di cura e la responsabilità variano in modo significativo a seconda della giurisdizione. I medici dovrebbero contattare un rappresentante legale qualificato per ottenere consigli specifici sulla loro situazione. Le citazioni dei membri della comunità sono state rese anonime.
I medici sono responsabili degli errori di IA?
Quando un software si guasta, gli sviluppatori possono incorrere in richieste di risarcimento per responsabilità del prodotto o per negligenza, a seconda della classificazione della tecnologia e della giurisdizione. Le richieste di risarcimento per responsabilità da prodotto trattano il software come un prodotto difettoso. Si consideri la causa Raine contro OpenAI . Il caso è incentrato sulle accuse che ChatGPT abbia generato contenuti dannosi che hanno contribuito alla morte dell’utente Adam Raine, sollevando la questione se lo sviluppatore possa essere ritenuto strettamente responsabile per i risultati della sua tecnologia. Dal momento che non è stato coinvolto alcun medico, l’attenzione legale si concentra sul prodotto in sé: se è stato progettato in modo difettoso o se non è stato sufficientemente protetto.
In cause come questa, i querelanti cercano di trattare gli strumenti di IA in modo simile ad altri prodotti di consumo, sostenendo che le aziende dovrebbero assumersi la responsabilità per i danni prevedibili causati dai loro sistemi. “Un terapeuta umano avrebbe riconosciuto che l’escalation di presentazioni di Adam poteva essere dovuta al fatto che voleva ricevere una motivazione per non morire, ma l’IA, per sua stessa concezione, non era in grado di distinguere la differenza tra la sua persistenza e un’effettiva richiesta di incoraggiamento”, afferma un medico di Sermo a proposito del caso.
Gli scenari dei medici, invece, vengono valutati con una lente diversa. Se un medico utilizza un algoritmo per la cura del paziente, è probabile che l’attenzione legale rimanga concentrata sul giudizio clinico del medico. Nel 2026, la giurisprudenza relativa all’uso dell’IA nell’assistenza sanitaria è scarsa. Tuttavia, sulla base dei casi di malpractice legati all’EHR esistenti, i tribunali tendono a concentrarsi principalmente sul modo in cui il medico ha interpretato e agito sulla base dei risultati del software – ed è probabile che si applichino lo stesso ragionamento e lo stesso principio giuridico di base (che il dovere di cura del medico-paziente non è delegabile). I tribunali possono prendere in considerazione i seguenti aspetti:
- Il medico ha valutato criticamente la raccomandazione?
- Era ragionevole fare affidamento su di essa in quel contesto?
- Un medico con una formazione simile avrebbe preso la stessa decisione?
Questa distinzione crea una zona grigia sempre più ampia man mano che l’uso dell’IA si diffonde. I sistemi di IA possono generare risultati errati che possono comunque sembrare autorevoli. Se un medico segue una raccomandazione generata dall’IA che porta a un danno, potrebbe incorrere in una responsabilità per eccesso di fiducia. D’altro canto, se ignora un avviso generato dall’IA che in seguito si rivela accurato, anche quella decisione potrebbe essere esaminata come un’opportunità mancata di soddisfare lo standard di cura in evoluzione.
I casi come quello di Raine contro OpenAI, che si stanno diffondendo nei tribunali, possono aiutare a chiarire dove ricade la responsabilità degli sviluppatori di IA. Secondo un membro di Sermo con esperienza in campo medico-legale, l’IA può informare le decisioni, ma non assorbire le responsabilità. “Il ruolo del medico come decisore clinico finale non può essere ceduto… L’IA non sostituisce né eticamente né legalmente la competenza e il giudizio”.
Come le “allucinazioni” dell’intelligenza artificiale possono influenzare il tuo processo decisionale come medico
L’IA generativa non ha le capacità di ragionamento di un essere umano, come sottolinea un membro del Sermo con esperienza in campo medico-legale: “L’IA opera attraverso l’attivazione di algoritmi successivi… anche questo è solo un simulacro del pensiero”.
Questi algoritmi sono famosi per fornire risultati falsi, spesso definiti allucinazioni dell’intelligenza artificiale in medicina. A volte, il software falsifica i risultati degli studi o inventa citazioni che in realtà non esistono.
Per questo motivo, nella pratica ci si aspetta che i medici verifichino le conclusioni degli algoritmi. Piattaforme di livello medico come OpenEvidence, che rimandano direttamente ai dati clinici di supporto, sono in genere una scelta più sicura rispetto all’affidarsi a strumenti di livello consumer come ChatGPT per le richieste cliniche complesse. “ChatGPT è noto per essere il tuo amico più bisognoso, ti dice quanto siano fantastiche le tue idee e addirittura ti dice che hai torto affermando quanto fosse brillante la tua domanda”, avverte un medico su Sermo.
Come integrare responsabilmente l’IA nell’assistenza medica
“I casi esistenti si basano ancora sullo standard del ‘medico ragionevole in circostanze simili’, indipendentemente dal fatto che sia stata utilizzata l’intelligenza artificiale”, osserva DeMoss . Questo standard privilegia ancora il giudizio umano rispetto ai risultati algoritmici. “Attualmente non esiste una dottrina o un precedente che attribuisca una responsabilità totale o parziale al sistema di IA e al suo sviluppatore, anche quando le raccomandazioni dell’IA hanno un impatto diretto sulla cura del paziente”, afferma DeMoss. “Tuttavia, in vista di ciò che accadrà, sia i medici che gli sviluppatori di tecnologie di IA dovrebbero valutare la copertura assicurativa per la responsabilità civile per determinare cosa è escluso dalla copertura”.
Agire in modo “ragionevole” può richiedere una visione critica, poiché i modelli generativi sono spesso costruiti per essere gradevoli, con un pregiudizio di piacere alle persone. In ambito clinico, ciò può manifestarsi con la generazione da parte del software di dati falsi a sostegno di una diagnosi sospetta da parte del medico. L’uso responsabile dell’IA “si baserà sul garantire l’accuratezza e ciò significherà compensare qualsiasi pregiudizio intrinseco in uno strumento di IA che probabilmente agirà come un ‘piacere alle persone’ e potrebbe persino allucinare le risposte per dare all’utente ciò che sembra volere”, afferma un medico su Sermo.
Dal punto di vista legale, il medico è l’ultima barriera per evitare danni. Seguire un algoritmo in un errore è spesso visto come un fallimento della supervisione umana. “Il medico si trova nella posizione di essere l’ultima possibilità di evitare che un input dell’IA sbagliato si traduca in un’assistenza effettiva”, afferma un membro di Sermo con esperienza in campo medico-legale.
Se non sei d’accordo con un risultato, il tuo razionale clinico può proteggerti. “Se il medico era a conoscenza del risultato dell’IA ma non credeva che dovesse essere seguito… la difesa sarebbe che il medico deve dimostrare che il risultato dell’IA non era probabilmente corretto”, afferma un medico nel corso del dibattito.
I punti chiave per i medici
Agli occhi della legge, gli algoritmi sono uno strumento che aumenta e non sostituisce il giudizio clinico. Quando si utilizzano questi sistemi, una documentazione solida include il “perché”, menzionando specificamente l’input dell’algoritmo e indicando chiaramente il razionale clinico per seguirlo o rifiutarlo. “La documentazione e il giudizio critico saranno più importanti che mai”, afferma un membro di Sermo.
Come si è visto nel caso Raine contro OpenAI, i querelanti possono perseguire le aziende tecnologiche per ottenere i danni anche quando non è coinvolto un medico. “La richiesta principale del caso è quella di responsabilità oggettiva… trattando ChatGPT come un prodotto intrinsecamente difettoso”, osserva un medico su Sermo. Nei casi in cui un medico utilizza uno strumento di intelligenza artificiale, il quadro giuridico principale è in genere la negligenza professionale.
I medici hanno un dovere indipendente e non delegabile nei confronti del paziente. “Questi doveri impongono un uso responsabile dell’IA secondo gli standard professionali”, scrive un membro di Sermo. Un altro membro della comunità la mette in questi termini: “I medici che utilizzano l’IA hanno l’obbligo di essere come minimo una piazzola di sosta e come massimo una striscia di emergenza, valutando se l’IA debba essere autorizzata ad avanzare nell’assistenza”. Un terzo membro avverte che “l’IA è solo uno strumento di soglia che viene poi sottoposto alla revisione umana”.
Il tuo ruolo di arbitro clinico
Sebbene l’intelligenza artificiale sia progettata per essere utile, non è necessariamente accurata. Il tuo ruolo di medico è quello di fungere da “giudicatore clinico”, filtrando i risultati degli algoritmi attraverso la lente dell’esperienza clinica per garantire la sicurezza del paziente.
I medici di Sermo stanno navigando insieme in questo nuovo territorio, discutendo su come utilizzare gli strumenti di IA mantenendo un occhio critico. Attraverso la comunità online, i medici imparano dalle reciproche esperienze nel mondo reale, attraverso specialità, paesi e sistemi giuridici. Iscriviti gratuitamente e mettiti in contatto con oltre 1 milione di medici in tutto il mondo.
Questo articolo è stato sottoposto a revisione medica da parte di un membro della comunità di medici Sermo.