Che l’Intelligenza Artificiale possa salvarci la vita, è ormai un dato di fatto.
Ci sono algoritmi e tecniche basate sull’AI che – già ai nostri giorni – sono state testate e validate scientificamente in molti ambiti della Medicina.
Qui, però, ci stiamo chiedendo un’altra cosa: anche sistemi LLM quali ChatGPT possono aspirare al più nobile degli obiettivi per il genere umano?
Ed ecco aprirsi il grande e dibattuto capitolo dell’utilità di ChatGPT in Sanità.
Possiamo usarlo in Medicina? E se sì, in quali situazioni e con quali rischi e vantaggi?
Qui, su HealthTech360, siamo stati sempre chiari su quale sia la nostra posizione: ChatGPT non può fare il Medico. Non può sostituirlo in tutto e per tutto. Ma può essergli d’aiuto.
Fa certamente cose meravigliose, spesso ci stupisce. Ma non dobbiamo mai dimenticare che non è altro che un pappagallo stocastico: assembla in maniera intelligente parole e frasi che NOI abbiamo scritto altrove, dando loro un senso (o meglio, consentendo a noi di attribuire loro un senso).
Ma ChatGPT non sa di cosa parla. Proprio come un pappagallo quando ripete le nostre parole.
Ma la Medicina non è Portobello. Né il Medico un concorrente da Enzo Tortora.
ChatGPT sarà di certo molto più bravo e loquace del pappagallo dello storico programma tv, ma un Medico non può cantare vittoria qualunque cosa ripeta.
Nei reparti degli ospedali e nei Pronto Soccorso si vince solo quando il paziente esce vivo. E per far sì che ciò accada, che scatti l’applauso, non basta che il pappagallo ChatGPT ripeta qualcosa. Occorra che ripeta sempre la cosa giusta. E, soprattutto, che quella cosa si riveli giusta per il particolare paziente al quale s’intende applicarla.
E allora? ChatGPT in Sanità solo un inutile giocattolino?
Non proprio.
Ci sono cose che ChatGPT può fare egregiamente e per le quali c’è già accordo pressoché unanime anche tra medici, operatori sanitari e addetti ai lavori.
Per esempio, può analizzare i dati delle cartelle cliniche, può scrivere benino i riepiloghi diagnostici e occuparsi di mille altre incombenze di tipo burocratico che farebbero risparmiare tanto tempo ai medici (da restituire ai pazienti in qualità delle cure) e tanti bei soldini alle amministrazioni delle Aziende Ospedaliere e Sanitarie.
Ma in questo – pur utile e prezioso ruolo – il Segretario ChatGPT non tocca praticamente palla per la salute dei pazienti. Non si sovrappone al lavoro del Medico, non ne influenza in alcun modo le decisioni.
Non fa diagnosi. Quindi, non può mettere a rischio, né salvare, la vita dei pazienti.
Troppo bello per essere vero.
Perché ChatGPT, a fare il Segretario del Medico, proprio non ci sta.
E ciò che fa riflettere è che – a volte – sia proprio il Medico a pensare che, in fondo, in quel ruolo segretariale ChatGPT sia un po’ sprecato. E allora inizia a metterlo alla prova.
A sondarlo con domandine varie per vedere se possa essergli utile in qualcosa di più delle semplici incombenze burocratiche quotidiane. Per esempio, aiutandolo a diagnosticare una patologia alla quale egli stesso non aveva pensato.
Con quali risultati?
Qui, anche tra gli stessi medici, le opinioni e le previsioni sono assai diverse.
Sebbene praticamente la totalità di essi concordi sul fatto che i sistemi alla ChatGPT non potranno mai sostituire il Medico incarnandone completamente il ruolo, ci sono punti di vista discordanti sulle attuali e potenziali capacità diagnostiche.
Si pensi, ad esempio, al particolare ambito della Medicina d’Urgenza.
Una classica situazione in cui può accadere che scarseggino le risorse mediche (o che siano del tutto assenti) e/o vi sia la necessità di giungere a una diagnosi in tempi brevissimi. Tutte condizioni che, ipoteticamente, abilitano i sistemi di AI per le loro intrinseche capacità di elaborazione intelligente di enormi quantità di dati in tempi rapidissimi.
E allora, in casi come questi, è naturale – ad esempio – chiedersi:
ChatGPT potrebbe essere utile in Pronto Soccorso?
Potrebbe aiutare il Medico a salvare vite?
Sì. No. Sì, ma…
Ci sono (autorevoli) pareri un po’ per tutte le posizioni.
Tra i sostenitori del Sì, ad esempio, gli autori del libro “The AI Revolution in Medicine”.
Tra di essi, Isaac Kohan – professore di BioInformatica Medica presso Harvard Medical School con esperienza trentennale in ambito medico e sanitario – che, assieme agli altri due autori (un giornalista e un esperto AI Microsoft), ha testato GPT-4 affermando che – già oggi – in questa sua nuova versione, ChatGPT potrebbe essere utilizzato nei Pronto Soccorso per risparmiare tempo e salvare vite.
Per chiarire la loro tesi, nel libro, gli esperti suggeriscono uno scenario ipotetico ma – a loro dire – verosimile – nel quale una paziente, giunta in Pronto Soccorso in gravi condizioni di salute, viene salvata grazie a una diagnosi che il Medico non era riuscito a fare e che, invece, era stata suggerita da GPT-4 alla cui app era stato chiesto consiglio dal cellulare di una dottoressa specializzanda.
Non una favoletta, secondo gli esperti, ma una vision – sia pure futuristica – di ciò che potrebbe fare davvero ChatGPT nei Pronto Soccorso: “In quasi tutti i modi che possiamo immaginare, dalle diagnosi alle cartelle cliniche, agli studi clinici – hanno affermato Kohan & Co. – l’impatto (di ChatGPT) sarà così ampio e profondo che crediamo sia opportuno iniziare a lavorare sin da subito su ciò che possiamo fare per ottimizzarlo“.
Vision che trova in qualche modo concorde anche il medico e scienziato Eric Topol (autore di molte “profezie” in ambito Digital Health, qui – ad esempio – la sua visione sulla Telemedicina) il quale sottolinea come gli autori – nei loro test – abbiano evidenziato come GPT-4, al contrario del pappagallo stocastico delle precedenti versioni, sembri ora avere una certa “consapevolezza” di ciò che scrive.
Il problema, però, è proprio quel “sembri”.
Perché – di fatto – per sua intrinseca natura – ChatGPT non può avere consapevolezza e coscienza di quello che scrive. È e resta un (meraviglioso) pappagallo.
E chi di noi, in Pronto Soccorso, gli chiederebbe di adattare il suo garrito per farsi fare una bella diagnosi al posto di un Medico?
Infatti, gli scettici del pappagallo in Pronto Soccorso sono tanti.
Tra loro, ovviamente, gli stessi medici che – proprio nei Pronto Soccorso – lavorano tutti i giorni.
Come Josh Tamayo-Sarver, Medico e grande esperto d’innovazione e tecnologie per la Sanità.
“Quando ho avuto notizia che ChatGPT aveva superato con successo l’esame di abilitazione alla professione medica negli Stati Uniti, sono stato curioso di sapere come si sarebbe comportato in una situazione medica reale. In qualità di sostenitore dell’uso dell’Intelligenza Artificiale per migliorare la qualità e l’efficienza dell’assistenza sanitaria, volevo vedere come l’attuale versione di ChatGPT potesse fungere da strumento utile nella mia pratica medica quotidiana” – ha affermato Tamayo-Sarver.
Per far questo, il Medico ha tenuto traccia dettagliata delle storie di una quarantina di pazienti giunti al suo Pronto Soccorso e le ha date in pasto a ChatGPT per testare se fosse stato in grado o meno di fare diagnosi differenziali.
I risultati – ha detto il medico-tecnologo – sono stati affascinanti, ma anche abbastanza inquietanti.
“Per circa la metà dei miei pazienti, ChatGPT ha suggerito 6 possibili diagnosi e la diagnosi ‘giusta’ – o, almeno, la diagnosi che io ritenevo corretta dopo una valutazione e un test completo – era tra le 6 suggerite da ChatGPT”, ha sottolineato il Medico specializzato in Medicina d’Urgenza.
Cosa che – di per sé – non sarebbe male, se non fosse che – come osservato dallo stesso Tamayo-Sarver – ci si trova in un Pronto Soccorso. E qui, il 50% di casi di successo non può essere certo considerato un successo!
E ci sono state anche tante altre sviste, delle quali alcune molto pericolose.
Per esempio, ad una paziente di 21 anni giunta in Pronto Soccorso con dolore addominale al quadrante inferiore destro, ChatGPT ha effettuato, tra le altre, una diagnosi differenziale di appendicite o cisti ovarica. La ragazza, invece, era incinta. Aveva una gravidanza extrauterina. Nessuna delle diagnosi differenziali di ChatGPT aveva contemplato tale evenienza.
Eppure, come sottolineato dal Medico, tale condizione – se diagnosticata troppo tardi – può essere fatale, provocando la morte per emorragia interna: “Fortunatamente per la mia paziente – ha detto Tamayo-Sarver – siamo riusciti a portarla di corsa in sala operatoria per un trattamento immediato”.
ChatGPT – negli esperimenti di Pronto Soccorso – ha diagnosticato erroneamente anche diversi altri pazienti che presentavano condizioni potenzialmente letali:
“Dobbiamo stare molto attenti a evitare aspettative gonfiate con programmi come ChatGPT, perché nel contesto della salute umana possono letteralmente essere pericolosi per la vita” – ha concluso il Medico di Pronto di Soccorso, che pure è un grande sostenitore dell’AI e dell’Informatica applicata alla Medicina.
E di medici che sottolineano i pericoli dei chatbot GPT – e che hanno espresso con forza le loro perplessità – ce ne sono tanti, ovviamente, anche in Italia:
“Quando si è laureato in Medicina GPT? – scrive su JAMA Maurizio Balestrino, Medico e Professore Associato presso il Dipartimento di Neuroscienze (DINOGMI) dell’Università di Genova e l’IRCCS Policlinico San Martino di Genova -.
‘Dott. Google‘ – osserva il Medico – ha già integrato e, talvolta, sostituito la consulenza medica da molto tempo, ma ha almeno un chiaro vantaggio rispetto a GPT e simili modelli di AI: le sue fonti possono essere verificate e valutate in modo indipendente.
Posso cercare su Google una stringa di ricerca e vedere con i miei occhi dove mi ha portato. Ovviamente, farà una grande differenza se mi ha portato sul sito web di una rispettata associazione medica o su un blog scritto da un profano.
Il grande limite (e, a mio avviso, pericolo) di GPT – continua Balestrino – è che non sai da dove ha preso i suoi dati.
GPT ti darà consigli o informazioni, proprio come farebbe un medico, senza bisogno di rivelare le sue fonti di informazione. Questo dettaglio è di fondamentale importanza.
Per dare consulenza medica, un Medico deve prima laurearsi in Medicina.
In Italia, una persona che fornisce consulenza medica senza essersi laureata in Medicina o aver terminato la formazione può essere perseguita in un tribunale penale. Poiché GPT, ovviamente, non soddisfa tale standard, la sua consulenza medica può essere considerata pericolosa e passibile di azione penale. Allo stato attuale, i non addetti ai lavori e i siti web a contenuto medico dichiarano chiaramente la loro limitazione di responsabilità scrivendo, ad esempio, che il loro contenuto non sostituisce in alcun modo un consulto medico né è ad esso equivalente. Tale atteggiamento dovrebbe essere esteso a GPT e simili. Non ha senso pretendere che un Medico sia qualificato, quindi consentire a una macchina di dispensare liberamente e irresponsabilmente consigli medici, tanto più perché le fonti di GPT non possono essere verificate, quindi non sappiamo se ha preso i suoi consigli da qualche articolo scientifico sottoposto a revisione paritaria o da un articolo di giornale.
Potrebbe venire il giorno in cui l’Intelligenza Artificiale assisterà o sostituirà la consulenza medica – osserva il Medico e Professore – ma ciò accadrà solo quando l’AI stessa sarà soggetta a una regolamentazione rigorosa – simile al requisito di una laurea in Medicina – che ora viene applicata per i medici.
Fino ad allora – conclude Balestrino – seguire il consiglio di GPT equivarrà ad andare in una biblioteca e comprare un libro su un argomento medico indipendentemente da chi lo ha scritto”.
Che occorra stare molto attenti a ChatGPT & Co., invero, è convinzione anche degli stessi sostenitori dell’uso di ChatGPT in Sanità.
Nel libro “The AI Revolution in Medicine”, non a caso, gli autori hanno inserito una marea di esempi di errori commessi da GPT-4:
“È allo stesso tempo più intelligente e più stupido di qualsiasi persona abbiate mai incontrato” – si legge nel libro.
È ancora solo un sistema informatico – mettono in guardia – fondamentalmente non migliore di un motore di ricerca web o di un libro di testo”.
Per ora, dunque, più che fare il Medico, meglio accontentarsi che – di quest’ultimo – ChatGPT faccia il Segretario. Che per lui legga e metta in ordine qualche scartoffia, scriva qualche lettera di dimissione, sintetizzi qualche referto o cartella clinica.
Le diagnosi?
Che provi pure a farle, perché no. Sbagliate o no che siano.
Perché un vantaggio – a pensar bene – ce l’ha: per sua natura, imparerà dagli errori.
E magari domani – chissà – ne farà così pochi da provare a fare il salto da Segretario del Medico a collega di fiducia.
Domani, però. Oggi andiamoci piano.