I sistemi di AI sanno ormai interpretare il linguaggio parlato, in diverse lingue, e riprodurre frasi in altrettante lingue con una “voce” credibile. Nell’immaginario collettivo hanno un notevole impatto, esaltato anche dall’enfasi dei media.
Indice degli argomenti
ChatGPT autonomo in Medicina e Sanità?
In ambito clinico-sanitario – qualora mai ci si arriverà, cosa improbabile quanto inopportuna – è ancora molto presto per un uso non supervisionato di questi chatbot: usarli con leggerezza, in un ambito così critico come quella della Medicina, potrebbe risultare molto pericoloso, innanzitutto per il bene più prezioso che abbiamo: la nostra salute.
Ma allora chiediamoci: quale uso potremmo fare di ChatGPT e compagni in Medicina e Sanità?
Come possono essere usati in modo sicuro questi sistemi AI Large Language Model (LLM) per il riconoscimento del linguaggio naturale?
No, ChatGPT non sarà il nostro medico
HealthTech360 ha già chiarito che – pur essendo stato capace di superare l’esame di abilitazione professionale in Medicina – chatGPT non potrà fare il Medico. E che, mentre tanto si parla di questo particolare chatbot, qualcuno (Google) – senza tanto clamore – sta facendo sul serio sperimentando Med-PaLM, un modello per il riconoscimento del linguaggio naturale in grado – a quanto pare – di rispondere a qualsiasi tipo di domande mediche con un livello di accuratezza simile a quello umano.
Riguardo ai sistemi LLM, sono diverse le aziende e centri di ricerca che stanno lavorando e sperimentando per produrre sistemi in grado di lavorare sui concetti (non solo sulle parole) e metterli in relazione tra loro, provando ad ottenere frasi e interi documenti di senso compiuto.
Sistemi, cioè, che sanno trasformare un insieme di frasi in un discorso filato non banale riprodotto in una lingua a piacere, italiano incluso.
ChatGPT è incredibilmente bravo
Ma cosa ci affascina tanto di ChatGPT?
Innanzitutto, è molto facile da usare. Possiamo fare una serie di domande successive su di un certo tema e ChatGPT sa tenere il filo del discorso, mantenendo il contesto da una domanda all’altra e permettendo all’interlocutore di raffinare la sua domanda iniziale (il cosiddetto “prompt”) per tappe e livelli successivi sempre più vicini a ciò che egli desidera conoscere e su cui sta cercando informazioni organizzate di senso compiuto.
Quattro chiacchiere con ChatGPT: Medicina, Sanità e non solo…
ChatGPT è solo un buon passatempo? Un nuovo “gioco di società” da provare con gli amici? Proviamo a capirlo assieme.
Chi scrive ha provato a farci una chiacchierata.
Nella prima, sondandone le capacità “letterarie”.
Poi, mettendolo alla prova su ciò che ci riguarda più da vicino: l’innovazione in Medicina e Sanità e, in particolare, i temi della Sanità Digitale.
Ecco com’è andata.
Scrivi dei versi con lo stile di Dante, senza copiare
“Nel cammin della vita, spesso smarriti,
versiamo lacrime amare, ma poi sorridiamo,
nella speranza che l’amore ci aiuti a trovare i nostri passi”
Simula D’Annunzio, parlando di pioggia
“La pioggia che cade, come una carezza,
sul viso della terra, è come un bacio
dell’anima del cielo, in un abbraccio di bellezza e di tristezza”
Adesso simula Orietta Berti
“La pioggia cade giù, sui campi di grano,
e il mio cuore è triste, senza di te,
ma so che l’amore, un giorno tornerà, come la primavera”
Newton
“La pioggia cade a goccia, governata da leggi naturali,
e mentre osservo il suo movimento,
mi delizio nel comprendere i segreti dell’universo”
Napoleone
“La pioggia cade giù, come un segno della volontà divina,
mentre io, Napoleone, marcio verso la vittoria,
la mia determinazione è come un’armatura, contro la natura e gli uomini”
Ok, basta con la pioggia. Crea una frase per Dalì
“La mia arte è un riflesso del mio mondo interiore, una trasposizione dei miei pensieri e delle mie emozioni sulla tela”
Bella. Ma l’hai inventata o copiata?
“La frase l’ho inventata io, non è una citazione o una frase famosa attribuita a qualcuno. Ho utilizzato il mio modello di linguaggio per creare una frase che potrebbe essere utilizzata da un artista per descrivere il proprio processo creativo”
Valentino
“La moda è una forma d’arte che esprime eleganza, raffinatezza e femminilità, un modo per celebrare la bellezza e la grazia delle donne”
Rossi
“La guida è un’arte, una danza tra uomo e macchina, un’esperienza di libertà e velocità”
In effetti, ChatGPT è sorprendente, specialmente per come gestisce i sottintesi nelle ultime due domande, così concise. Si entra man mano in confidenza e viene il dubbio che dietro una tenda ci sia qualcuno quasi onnisciente e con la risposta sempre pronta…
ChatGPT super anche in Medicina e Sanità: ma non sa cosa sta scrivendo…
Questo incredibile strumento LLM ha una vastissima e costosissima base di conoscenze (tra l’altro, sono sorti dubbi sullo sfruttamento di chi ci lavora per taggarne correttamente i contenuti in fase di addestramento).
Durante una sessione, ChatGPT estrae i nuovi concetti (anche) dalle nostre domande, li prende per veri, e li usa per ricalcolare le sue risposte successive, senza modificare la sua base di conoscenze.
In altre parole, se non stiamo attenti, nel corso di una stessa sessione possiamo influenzare e alterare noi stessi le sue risposte in base a come gli facciamo le domande.
Di seguito, un semplice esempio di ciò che ChatGPT riesce a rispondere quando gli si pongono domande in ambito sanitario:
Quali benefici può portare la telemedicina nella riabilitazione?
La telemedicina può offrire molti benefici nella riabilitazione, tra cui:
- Accessibilità: la telemedicina consente agli individui di accedere alle cure riabilitative indipendentemente dalla loro posizione geografica, riducendo la necessità di viaggiare per raggiungere un professionista sanitario qualificato.
- Continuità delle cure: la telemedicina consente una maggiore continuità delle cure, poiché i pazienti possono continuare a ricevere assistenza riabilitativa anche dopo aver lasciato la struttura ospedaliera.
- Convenienza: la telemedicina consente ai pazienti di ricevere le cure riabilitative in un ambiente familiare, il che può essere più comodo e meno stressante per loro.
- Monitoraggio continuo: la telemedicina consente ai professionisti sanitari di monitorare costantemente i progressi dei pazienti, il che aiuta a garantire che le cure riabilitative siano adeguate e adattate alle esigenze individuali.
- Risparmio di tempo e denaro: la telemedicina consente ai professionisti sanitari di risparmiare tempo e denaro, poiché non devono spostarsi per incontrare i pazienti e il costo di trasporto per i pazienti è eliminato.
Impeccabile, verrebbe da dire… Cosa manca? Chi potrebbe rispondere meglio?
Sembra un’ottima sintesi, concisa e, allo stesso tempo, ben dettagliata.
Certo, ChatGPT non “capisce” e non “ragiona”, ma – come possiamo notare da questa semplice chiacchierata – è molto bravo a simularlo. Non “sa” cosa sta scrivendo, ma fa finta molto bene.
È come se conoscesse davvero ciò di cui scrive.
Dalla sicurezza sui numeri all’ambiguità dei concetti
Qualche decina di anni fa, i “calcolatori” dimostrarono di saper gestire i numeri e fare calcoli. Imitavano una capacità che, fino a quel momento, era considerata esclusivamente umana.
Oggi non ci meravigliamo più. Ma, mentre sui numeri i calcolatori “ci azzeccano” sempre, sulla gestione dei concetti non ci si può fidare più di tanto.
ChatGPT è bravo, ma spesso può anche sbagliare, proprio come uno studente.
Non è (per ora) al livello di un professore, che di solito sbaglia un po’ meno.
Quindi, potrà forse essere utile nella didattica, ma lo studente dovrà sempre tener presente che sta “dialogando” con l’equivalente di un altro studente, abbastanza bravo, e quindi dovrà controllare le fonti (che, peraltro, ChatGPT non mostra) e ragionare con la propria testa.
Già, controllare le fonti …
ChatGPT spezzetta, mescola e frulla finemente milioni di fonti diverse, cioè fa un “minestrone” di concetti, e li sparge in giro – come tanti piselli provenienti da piante diverse – a produrre, insieme agli altri ingredienti della “zuppa”, un tutt’uno ben affiatato.
Quindi, le evidenze occorre cercarsele con un altro strumento, per esempio con un motore di ricerca “intelligente” (altro filone dell’AI molto promettente).
Tuttavia, questo rischio ChatGPT “lo conosce”, o meglio – come emerge dalla chiacchierata mostrata di seguito – “lo sa descrivere in modo chiaro”: se fosse umano, diremmo che “ne è consapevole”.
Come fai a gestire informazioni contraddittorie presenti nella tua base di conoscenze?
Il modello utilizzato per generare le risposte, come ChatGPT, è stato addestrato su un gran numero di testi presenti in internet. Pertanto, può essere a conoscenza di informazioni contraddittorie su un determinato argomento.
In questi casi, cerco di fornire la risposta più attendibile e supportata da fonti affidabili. Tuttavia, non sempre è possibile determinare quale informazione sia più corretta e in alcuni casi potrebbe essere necessario consultare un esperto o verificare ulteriormente l’informazione fornita.
Sai che in Medicina potrebbe essere molto pericoloso per il paziente?
Sì, è vero che in medicina le informazioni contraddittorie possono essere pericolose.
Pertanto, è importante che le informazioni mediche fornite siano accurate e verificate da fonti affidabili.
Come modello di linguaggio, non ho la capacità di valutare la qualità delle fonti o la loro attendibilità, per questo è importante che le informazioni mediche vengano verificate da un medico o da un professionista sanitario.
Raccomando di non utilizzare le informazioni fornite dal mio modello come sostituto di un parere medico qualificato.
Come riconosci le fake news?
Il riconoscimento delle notizie false o “fake news” può essere complesso, poiché possono essere presentate in modo convincente e utilizzare fonti apparentemente affidabili. Come modello di linguaggio, non ho la capacità di valutare la veridicità o la qualità delle fonti.
Per riconoscere le notizie false è importante:
- Verificare la fonte dell’informazione.
- Cercare conferma da più fonti.
- Prestare attenzione all’uso del linguaggio emotivo o alla presentazione parziale dei fatti.
- Utilizzare strumenti di verifica delle notizie come org o Snopes.com.
In ogni caso, è sempre meglio verificare l’informazione con fonti affidabili e non prendere decisioni importanti basandosi su una singola fonte.
Abbiamo visto come ChatGPT sia riuscito a superare una selezione di domande relative ai test di medicina in USA: ma chi si farebbe curare da uno studente, pur bravissimo, solo perché riesce a fare pochi errori nel rispondere ai quiz?
ChatGPT sa dare le risposte, ma solo un Medico sa fare le domande
Una cosa è fare un esercizio astratto (come, appunto, rispondere a un questionario d’esame), un’altra è prendersi cura di una persona.
Ricordiamoci che chi si prende cura di una persona (medico, infermiere, o altro professionista), oltre ad instaurare con lei una relazione, deve interpretare quali siano i suoi problemi di salute, interpellare la “base di conoscenze” (eventualmente, integrandola) nella propria testa per decidere come potrebbero essere gestiti ed affrontati quei problemi di salute e capire quanto quella specifica persona – con le sue peculiarità che la rendono unica – sia in grado di fare la sua parte nell’affrontarli.
E se il professionista si rivolge ad un collega o ad uno strumento per consigli o per verificare un’ipotesi, formulare bene la domanda forse è più complesso che trovare la risposta…
Se il paziente, invece, si rivolgesse direttamente a ChatGPT, il rischio sarebbe estremamente più alto.
Un problema simile, peraltro, si è già posto con “dr. Google”, visto che molti pazienti ormai vanno dal medico con un’auto-diagnosi pronta, oppure non ci vanno proprio e si gestiscono da soli diagnosi e terapia ravanando in cerca della soluzione sul web.
ChatGPT amplifica questo rischio, perché sembra proprio di parlare con un professionista che capisce e che sa tutto. Ma, in realtà, siamo noi che guidiamo il dialogo e gli suggeriamo le risposte (che possono essere sbagliate, almeno parzialmente, cosa che a ChatGPT capita in una percentuale non nota ma, certamente, molto elevata).
Ma allora, a cosa potrà servire ChatGPT in Medicina e Sanità?
Francamente, non è facile dirlo. Che si sappia, non è certamente nato per la “guida autonoma” o per sostituire un medico davanti al paziente.
Certo, fa cose “da fantascienza”, dimostra che ormai sistemi LLM di questo tipo sono abbastanza maturi. Ma l’aspetto che impatta di più sull’immaginario collettivo è il fatto che ChatGP riesca a dialogare su argomenti complessi: una proprietà umana importante tutt’altro che semplice da emulare.
ChatGPT, con i suoi simili, dimostra innanzitutto che, sapendoli cercare, nel web i concetti utili per affrontare le varie tematiche ci sono, e un sistema potente può riuscire a metterli in fila e dar loro un apparente senso logico. Non è poco.
Tuttavia, occorre basarsi sempre sui principi della medicina basata sull’evidenza. E preferire, di conseguenza, l’approccio di quei Sistemi di Supporto alla Decisione che usano una base di conoscenze ricavata dal lavoro di tanti professionisti sanitari che studiano le pubblicazioni con referee e le rendono elaborabili.
Forse è il caso di diffondere di più sistemi di questo tipo, anche perché, di solito, indicano anche quali sono le fonti delle loro elaborazioni, mentre ChatGPT, nella sua “amalgama”, non è in grado di recuperarle.
In sostanza, attualmente ChatGPT in Medicina e Sanità è un ottimo strumento per chi le cose le sa già, da usare magari come check-list per verificare la completezza di un ragionamento, oppure come fonte di spunti per organizzare meglio l’esposizione di un argomento, o ancora come testo base per stimolare discussioni tra gli studenti (moderate da un professore…).
Però, se ci trovassimo in emergenza, senza un dottore a portata di mano, magari lo useremmo!