Intelligenza Artificiale

ChatGPT in Medicina e Sanità: ecco cosa (NON) può fare

Abbiamo messo alla prova il chatbot delle meraviglie di OpenAI chiacchierando con lui sui temi della Digital Health (e non solo). Semplice passatempo o molto di più? Scopriamone assieme potenzialità, limiti e prospettive future

Pubblicato il 03 Feb 2023

Angelo Rossi Mori

Ricercatore IRPPS-CNR - Strategie su Salute in Rete

ChatGPT-Medicina-Sanità

I sistemi di AI sanno ormai interpretare il linguaggio parlato, in diverse lingue, e riprodurre frasi in altrettante lingue con una “voce” credibile. Nell’immaginario collettivo hanno un notevole impatto, esaltato anche dall’enfasi dei media.

ChatGPT autonomo in Medicina e Sanità?

In ambito clinico-sanitario – qualora mai ci si arriverà, cosa improbabile quanto inopportuna – è ancora molto presto per un uso non supervisionato di questi chatbot: usarli con leggerezza, in un ambito così critico come quella della Medicina, potrebbe risultare molto pericoloso, innanzitutto per il bene più prezioso che abbiamo: la nostra salute.

Ma allora chiediamoci: quale uso potremmo fare di ChatGPT e compagni in Medicina e Sanità?

Come possono essere usati in modo sicuro questi sistemi AI Large Language Model (LLM) per il riconoscimento del linguaggio naturale?

No, ChatGPT non sarà il nostro medico

HealthTech360 ha già chiarito che – pur essendo stato capace di superare l’esame di abilitazione professionale in MedicinachatGPT non potrà fare il Medico. E che, mentre tanto si parla di questo particolare chatbot, qualcuno (Google) – senza tanto clamore – sta facendo sul serio sperimentando Med-PaLM, un modello per il riconoscimento del linguaggio naturale in grado – a quanto pare – di rispondere a qualsiasi tipo di domande mediche con un livello di accuratezza simile a quello umano.

Riguardo ai sistemi LLM, sono diverse le aziende e centri di ricerca che stanno lavorando e sperimentando per produrre sistemi in grado di lavorare sui concetti (non solo sulle parole) e metterli in relazione tra loro, provando ad ottenere frasi e interi documenti di senso compiuto.

Sistemi, cioè, che sanno trasformare un insieme di frasi in un discorso filato non banale riprodotto in una lingua a piacere, italiano incluso.

ChatGPT è incredibilmente bravo

Ma cosa ci affascina tanto di ChatGPT?
Innanzitutto, è molto facile da usare. Possiamo fare una serie di domande successive su di un certo tema e ChatGPT sa tenere il filo del discorso, mantenendo il contesto da una domanda all’altra e permettendo all’interlocutore di raffinare la sua domanda iniziale (il cosiddetto “prompt”) per tappe e livelli successivi sempre più vicini a ciò che egli desidera conoscere e su cui sta cercando informazioni organizzate di senso compiuto.

Quattro chiacchiere con ChatGPT: Medicina, Sanità e non solo…

ChatGPT è solo un buon passatempo? Un nuovo “gioco di società” da provare con gli amici? Proviamo a capirlo assieme.

Chi scrive ha provato a farci una chiacchierata.

Nella prima, sondandone le capacità “letterarie”.
Poi, mettendolo alla prova su ciò che ci riguarda più da vicino: l’innovazione in Medicina e Sanità e, in particolare, i temi della Sanità Digitale.
Ecco com’è andata.

In effetti, ChatGPT è sorprendente, specialmente per come gestisce i sottintesi nelle ultime due domande, così concise. Si entra man mano in confidenza e viene il dubbio che dietro una tenda ci sia qualcuno quasi onnisciente e con la risposta sempre pronta…

ChatGPT super anche in Medicina e Sanità: ma non sa cosa sta scrivendo…  

Questo incredibile strumento LLM ha una vastissima e costosissima base di conoscenze (tra l’altro, sono sorti dubbi sullo sfruttamento di chi ci lavora per taggarne correttamente i contenuti in fase di addestramento).

Durante una sessione, ChatGPT estrae i nuovi concetti (anche) dalle nostre domande, li prende per veri, e li usa per ricalcolare le sue risposte successive, senza modificare la sua base di conoscenze.
In altre parole, se non stiamo attenti, nel corso di una stessa sessione possiamo influenzare e alterare noi stessi le sue risposte in base a come gli facciamo le domande.

Di seguito, un semplice esempio di ciò che ChatGPT riesce a rispondere quando gli si pongono domande in ambito sanitario:

Impeccabile, verrebbe da dire… Cosa manca? Chi potrebbe rispondere meglio?

Sembra un’ottima sintesi, concisa e, allo stesso tempo, ben dettagliata.

Certo, ChatGPT non “capisce” e non “ragiona”, ma – come possiamo notare da questa semplice chiacchierata – è molto bravo a simularlo. Non “sa” cosa sta scrivendo, ma fa finta molto bene.
È come se conoscesse davvero ciò di cui scrive.

Dalla sicurezza sui numeri all’ambiguità dei concetti

Qualche decina di anni fa, i “calcolatori” dimostrarono di saper gestire i numeri e fare calcoli. Imitavano una capacità che, fino a quel momento, era considerata esclusivamente umana.
Oggi non ci meravigliamo più.  Ma, mentre sui numeri i calcolatori “ci azzeccano” sempre, sulla gestione dei concetti non ci si può fidare più di tanto.

ChatGPT è bravo, ma spesso può anche sbagliare, proprio come uno studente.

Non è (per ora) al livello di un professore, che di solito sbaglia un po’ meno.

Quindi, potrà forse essere utile nella didattica, ma lo studente dovrà sempre tener presente che sta “dialogando” con l’equivalente di un altro studente, abbastanza bravo, e quindi dovrà controllare le fonti (che, peraltro, ChatGPT non mostra) e ragionare con la propria testa.

Già, controllare le fonti …

ChatGPT spezzetta, mescola e frulla finemente milioni di fonti diverse, cioè fa un “minestrone” di concetti, e li sparge in giro – come tanti piselli provenienti da piante diverse – a produrre, insieme agli altri ingredienti della “zuppa”, un tutt’uno ben affiatato.

Quindi, le evidenze occorre cercarsele con un altro strumento, per esempio con un motore di ricerca “intelligente” (altro filone dell’AI molto promettente).

Tuttavia, questo rischio ChatGPT “lo conosce”, o meglio – come emerge dalla chiacchierata mostrata di seguito – “lo sa descrivere in modo chiaro”: se fosse umano, diremmo che “ne è consapevole”.

Abbiamo visto come ChatGPT sia riuscito a superare una selezione di domande relative ai test di medicina in USA: ma chi si farebbe curare da uno studente, pur bravissimo, solo perché riesce a fare pochi errori nel rispondere ai quiz?

ChatGPT sa dare le risposte, ma solo un Medico sa fare le domande

Una cosa è fare un esercizio astratto (come, appunto, rispondere a un questionario d’esame), un’altra è prendersi cura di una persona.

Ricordiamoci che chi si prende cura di una persona (medico, infermiere, o altro professionista), oltre ad instaurare con lei una relazione, deve interpretare quali siano i suoi problemi di salute, interpellare la “base di conoscenze” (eventualmente, integrandola) nella propria testa per decidere come potrebbero essere gestiti ed affrontati quei problemi di salute e capire quanto quella specifica personacon le sue peculiarità che la rendono unica – sia in grado di fare la sua parte nell’affrontarli.

E se il professionista si rivolge ad un collega o ad uno strumento per consigli o per verificare un’ipotesi, formulare bene la domanda forse è più complesso che trovare la risposta…

Se il paziente, invece, si rivolgesse direttamente a ChatGPT, il rischio sarebbe estremamente più alto.

Un problema simile, peraltro, si è già posto con “dr. Google”, visto che molti pazienti ormai vanno dal medico con un’auto-diagnosi pronta, oppure non ci vanno proprio e si gestiscono da soli diagnosi e terapia ravanando in cerca della soluzione sul web.

ChatGPT amplifica questo rischio, perché sembra proprio di parlare con un professionista che capisce e che sa tutto. Ma, in realtà, siamo noi che guidiamo il dialogo e gli suggeriamo le  risposte (che possono essere sbagliate, almeno parzialmente, cosa che a ChatGPT capita in una percentuale non nota ma, certamente, molto elevata).

Ma allora, a cosa potrà servire ChatGPT in Medicina e Sanità?

Francamente, non è facile dirlo. Che si sappia, non è certamente nato per la “guida autonoma” o per sostituire un medico davanti al paziente.

Certo, fa cose “da fantascienza”, dimostra che ormai sistemi LLM di questo tipo sono abbastanza maturi. Ma l’aspetto che impatta di più sull’immaginario collettivo è il fatto che ChatGP riesca a dialogare su argomenti complessi: una proprietà umana importante tutt’altro che semplice da emulare.

ChatGPT, con i suoi simili, dimostra innanzitutto che, sapendoli cercare, nel web i concetti utili per affrontare le varie tematiche ci sono, e un sistema potente può riuscire a metterli in fila e dar loro un apparente senso logico. Non è poco.

Tuttavia, occorre basarsi sempre sui principi della medicina basata sull’evidenza. E preferire, di conseguenza, l’approccio di quei Sistemi di Supporto alla Decisione che usano una base di conoscenze ricavata dal lavoro di tanti professionisti sanitari che studiano le pubblicazioni con referee e le rendono elaborabili.
Forse è il caso di diffondere di più sistemi di questo tipo, anche perché, di solito, indicano anche quali sono le fonti delle loro elaborazioni, mentre ChatGPT, nella sua “amalgama”, non è in grado di recuperarle.

In sostanza, attualmente ChatGPT in Medicina e Sanità è un ottimo strumento per chi le cose le sa già, da usare magari come check-list per verificare la completezza di un ragionamento, oppure come fonte di spunti per organizzare meglio l’esposizione di un argomento, o ancora come testo base per stimolare discussioni tra gli studenti (moderate da un professore…).

Però, se ci trovassimo in emergenza, senza un dottore a portata di mano, magari lo useremmo!

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 5