Negli ultimi anni, si sta assistendo sempre più ad un aumento dell’utilizzo di sistemi per la pre-diagnosi medica e il supporto alle decisioni cliniche (CDSS), alimentati dall’Intelligenza Artificiale (AI), in grado di fornire ai medici assistenza e supporto in tempo reale per prendere decisioni sull’assistenza ai pazienti.
Indice degli argomenti
Vantaggi e rischi potenziali dell’AI nella diagnostica medica
A seconda di come l’Intelligenza Artificiale viene utilizzata e di come il medico interpreta i suoi risultati, l’influenza di questi sistemi di AI può essere positiva o negativa.
Essendo in grado di analizzare grandi volumi di dati in modo rapido e preciso, l’AI garantirebbe una migliore efficienza, velocizzando il processo di diagnosi e permettendo ai medici di dedicare più tempo ai pazienti e concentrarsi su aspetti complessi della diagnosi e del trattamento.
L’AI, inoltre, garantirebbe una maggiore accuratezza, in quanto sarebbe in grado di identificare modelli e correlazioni che potrebbero sfuggire al medico, aumentando la precisione diagnostica e riducendo la possibilità di errori.
Ed infine, garantirebbe una diagnosi precoce, in quanto sarebbe in grado di identificare precocemente i segnali di una malattia, consentendo un intervento tempestivo e migliorando le probabilità di successo del trattamento.
Tuttavia, affidarsi completamente all’AI potrebbe portare progressivamente i medici a perdere l’esperienza e l’intuito necessari (deskilling) per una diagnosi accurata e indurre i medici ad una dipendenza eccessiva.
Se i clinici non verificano o non integrano la pre-diagnosi con il proprio giudizio, si rischia di trascurare informazioni importanti o di prendere decisioni terapeutiche errate e incorrere in errori diagnostici.
Infine, poiché i sistemi di AI, per assenza di dati a disposizione, tendono a trascurare le specificità individuali del paziente, come la storia medica, lo stile di vita e l’ambiente sociale che influenzano la diagnosi e il trattamento, ciò potrebbe indurre ad una mancanza di personalizzazione.
Cos’è e a cose serve l’Explainable AI in Sanità
I quadri normativi di tutto il mondo iniziano a richiedere maggiore trasparenza e responsabilità nell’uso di sistemi di AI.
Un primo esempio di questo cambiamento normativo è l’AI Act della Commissione europea, un quadro giuridico completo – peraltro, approvato di recente – per disciplinare l’uso dell’ AI negli Stati membri dell’UE.
Questa Legge sottolinea l’importanza della trasparenza, della sicurezza e della protezione dei diritti fondamentali nelle applicazioni di AI, segnando un passo significativo verso l’istituzionalizzazione dei principi dell’Explainable AI in Sanità.
La XAI (eXplainable Artificial Intelligence) o “Intelligenza Artificiale spiegabile” è un campo di ricerca che si concentra sul rendere i modelli di Intelligenza Artificiale più comprensibili, trasparenti e interpretabili, migliorando la supervisione umana e consentendo agli utenti di capire perché è stata generata una particolare decisione o previsione.
Se, infatti, immaginassimo di avere un’AI che ci dicesse cosa fare, ma non sapessimo come abbia preso quella decisione, potremmo non fidarci di essa o potremmo essere preoccupati che possa prendere decisioni sbagliate.
L’Explainable AI in Sanità – e non solo – si riferisce a metodi e tecniche nel campo dell’AI che aiutano a risolvere questo problema, rendendo il processo decisionale e i risultati dei sistemi di AI più comprensibili e trasparenti agli esseri umani.
Questa “spiegabilità”, di fatto, svolgerebbe un ruolo cruciale nel creare fiducia e comprensione tra i sistemi di AI e i loro utenti, generando una credibilità necessaria per la sua adozione e facilitando, in ultima analisi, la diffusione responsabile ed etica delle tecnologie di AI.
Le tecniche utilizzate dall’Intelligenza Artificiale “spiegabile”
Diverse tecniche XAI ci permettono di costruire sistemi di AI che siano non solo potenti, ma anche trasparenti e comprensibili.
Sistemi di Explainable AI ben progettati dovrebbero sforzarsi di colmare il divario tra il modo di comprendere il mondo dell’essere umano e il funzionamento interno del modello di AI, promuovendo la comprensione e la fiducia nelle decisioni del sistema.
Anche la scelta della tecnica più adatta è importante e dipende non solo dal tipo di modello di AI, ma anche dal compito svolto e dal pubblico a cui la spiegazione è destinata; il quale, se riceve spiegazioni non allineate con le proprie capacità cognitive e con le proprie aspettative, potrebbe entrare in confusione ed incorrere in quello che viene definito “effetto terzo incomodo“.
Alcune delle tecniche di XAI maggiormente utilizzate sono:
- Feature Importance Visualization
Questa tecnica identifica e visualizza le caratteristiche più influenti nelle previsioni di un modello di AI. SHAP (SHapley Additive exPlanations), in particolare, fornisce un approccio unificato per spiegare l’output di qualsiasi modello di apprendimento automatico calcolando il contributo di ciascuna caratteristica alla previsione;
- Effetti Locali Accumulati (ALE)
Rappresentano una tecnica di XAI che aiuta a comprendere l’impatto di diverse variabili su una predizione, offrendo un modo per interpretare il comportamento del modello su diversi sottoinsiemi dei dati senza richiedere ampie risorse computazionali. L’ALE è particolarmente utile per modelli complessi come quelli di deep learning, dove le relazioni tra variabili e predizioni possono essere nascoste e difficili da interpretare;
- Spiegazioni controfattuali
Sono basate sulla formula: “se… poi…”, che mostra come l’alterazione delle caratteristiche di input potrebbe cambiare il risultato. Questa tecnica aiuta gli utenti a comprendere il modello considerando scenari alternativi e il loro impatto sulla previsione;
- Modelli surrogati
Si tratta di modelli interpretabili utilizzati per approssimare le previsioni di un modello di AI più complesso. L’idea è addestrare un modello più semplice, ad esempio un albero decisionale o una regressione lineare, sulle stime effettuate dal modello complesso. Questo modello più semplice funge quindi da proxy, fornendo informazioni dettagliate sul modo in cui il modello originale prende decisioni. Un esempio è Local Interpretable Model-agnostic Explanations (LIME), che genera spiegazioni locali basate su modelli lineari più semplici.
I potenziali vantaggi dell’Explainable AI in Sanità
Il potenziale dell’Intelligenza Artificiale Spiegabile nei domini della Salute e della Medicina – ossia dell’Explainable AI in Sanità – è immenso e in grado di rivoluzionare vari aspetti dell’erogazione dell’assistenza sanitaria e dei processi decisionali: dallo sviluppo di sistemi diagnostici interpretabili a piani di trattamento personalizzati, da sistemi di supporto alle decisioni cliniche basati su XAI allo sviluppo di nuovi farmaci e all’identificazione dei pazienti che potrebbero trarne maggior beneficio, fino alla personalizzazione dell’allocazione delle risorse sanitarie.
Rendendo l’AI più trasparente e comprensibile per medici e pazienti, alcuni possibili benefici potrebbero essere:
- Aumento della fiducia: la trasparenza garantita dell’Explainable AI in Sanità genererebbe fiducia tra medici e pazienti, favorendo l’adozione dell’AI in ambito sanitario;
- Sviluppo di sistemi AI più etici e responsabili: la XAI permetterebbe di identificare e mitigare i bias presenti nei dati utilizzati per l’addestramento dei modelli di AI, garantendo maggiore equità;
- Migliore comunicazione medico-paziente: le spiegazioni dell’Explainable AI in Sanità potrebbero essere utilizzate per comunicare con i pazienti in modo chiaro e trasparente, favorendo la comprensione delle diagnosi, dei piani di trattamento e delle relative incertezze;
- Migliore processo decisionale: la XAI aiuterebbe i medici a comprendere le decisioni prese dall’AI, fornendo spiegazioni chiare e accessibili. Questo permetterebbe di identificare potenziali errori e prendere decisioni più consapevoli e responsabili.
I bias dell’Intelligenza Artificiale in Medicina
Il concetto di bias, o distorsioni, nell’ambito dell’AI in Medicina si riferisce alla tendenza dei sistemi a produrre risultati distorti o iniqui a causa di fattori come dati di addestramento non rappresentativi o pregiudizi impliciti nel processo di sviluppo.
Ad esempio, se un algoritmo di diagnosi dermatologica viene addestrato principalmente su immagini di pelle chiara, potrebbe mostrare una minore precisione nel riconoscere condizioni cutanee in persone con tonalità più scure.
Allo stesso modo, se i dati utilizzati per addestrare un modello di predizione di malattie cardiovascolari sono raccolti principalmente da pazienti con accesso a cure mediche di alta qualità, il modello potrebbe sottostimare il rischio per i gruppi socio-economicamente svantaggiati.
Questi esempi evidenziano come il bias nelle AI mediche possa compromettere l’accuratezza e l’equità dei risultati, esponendo alcuni gruppi a rischi maggiori come il ricevere diagnosi errate o cure inadeguate.
Il bias può essere introdotto a tutti i livelli nel ciclo di vita di un modello di AI, dalla raccolta dati alla valutazione, passando per l’annotazione dei dati, lo sviluppo del modello ed il suo utilizzo.
I bias propagati dai modelli di AI sono spesso causati dai bias presenti nei dati che raccogliamo e, di riflesso, dai pregiudizi presenti nelle nostre società.
Vi sono alcuni approcci proposti per mitigare il problema dei bias e promuovere una maggiore equità: tra questi, è sicuramente di fondamentale importanza il coinvolgimento di diverse figure professionali in tutto il processo di raccolta dati e addestramento dei modelli di AI, partendo da valutazioni approfondite e una ricerca a monte di possibili bias contenuti nei dati che potrebbero non risultare immediatamente evidenti.
L’Explainable AI in Sanità per identificare i bias?
Un recente studio pubblicato su JAMA ha indagato l’impatto dell’AI sulla precisione diagnostica degli operatori sanitari nella diagnosi di insufficienza respiratoria acuta, basandosi sulla storia clinica, l’esame obiettivo, i test di laboratorio e le immagini diagnostiche.
Gli autori hanno arruolato un campione di 457 tra medici ospedalieri, infermieri specializzati e altri professionisti sanitari, presentando loro 9 scenari clinici riguardanti pazienti con problemi respiratori acuti.
Durante lo studio, i clinici hanno formulato diagnosi basate sulle informazioni cliniche a loro disposizione, alcune delle quali supportate da previsioni di modelli di AI di due tipi: un modello standard e una serie di modelli volutamente costruiti con dei bias (biased), ovvero che basavano la diagnosi su una caratteristica specifica del paziente (indice di massa corporea, età o immagine radiologica sfocata, conducenti rispettivamente alle diagnosi di insufficienza cardiaca, polmonite e BPCO).
Alcuni dei casi clinici sono stati ulteriormente supportati da “spiegazioni”, ossia da tecniche di Explainable AI che supportavano la decisione del modello, con il presupposto che le spiegazioni “falsate” dei modelli biased fornissero un indizio ai clinici circa l’inaffidabilità di tali modelli.
Dai risultati emerge, con poca sorpresa, che l’utilizzo di AI standard può migliorare la precisione diagnostica dei medici, mentre le previsioni errate dei modelli biased hanno peggiorato la loro accuratezza.
Tuttavia, l’ipotesi degli autori è stata confutata: l’aggiunta di spiegazioni alle previsioni errate non ha portato a miglioramenti significativi nella identificazione dei bias e alla conseguente correzione degli stessi.
I motivi che potrebbero spiegare questo fenomeno, secondo gli autori, sono diversi:
- la mancata conoscenza, da parte dei clinici, dei limiti dei modelli di AI;
- una procedura di creazione di “spiegazioni” che non ha preso in considerazione l’opinione dei clinici;
- l’assenza di un linguaggio standard nell’interazione AI-operatore sanitario.
Lo studio, inoltre, ha limiti metodologici tra cui il setting non assistenziale (si trattava di questionari compilati al computer), un campione di età media minore di quella degli operatori sanitari e, soprattutto, l’assenza della figura del radiologo nel campione, che è quella con maggiore dimestichezza nell’analisi di immagini strumentali.
Aprire la scatola nera dell’AI può servire, ma non basta
Lo studio appena riportato come esempio ha messo in luce le sfide inerenti all’impiego dell’AI nel settore sanitario, sottolineando in particolare come la mera spiegabilità dei modelli non basti a superare le problematiche legate ai bias.
Sebbene l’apertura della “scatola nera” dell’AI contribuisca a una migliore comprensione e, potenzialmente, a una maggiore accettazione di tali tecnologie in ambito sanitario, è evidente che questo non basti ad assicurare l’equità e l’assenza di pregiudizi nei modelli impiegati.
Vi è la necessità di un approccio multidisciplinare alla progettazione e implementazione dell’AI in Medicina che possa permettere un’esplorazione approfondita e critica dei bias – che spesso affondano le radici in questioni sociali profonde – al fine di illuminare le complesse dinamiche alla base delle disparità osservate. Solo attraverso un’analisi dettagliata e inclusiva è possibile identificare strategie efficaci per mitigare i bias, promuovere l’equità e garantire che le promesse dell’AI possano essere realizzate a beneficio di tutti i pazienti.