Una cosa è certa: a meno di una settimana dall’annuncio ufficiale di ChatGPT Health, siamo di fronte a un’eco mediatica senza precedenti. Non c’è praticamente nessun operatore sanitario che non ne abbia sentito parlare, e gli articoli sulla stampa specializzata sono migliaia a livello planetario.
Senza neppure un dollaro speso in pubblicità, la OpenAI di Sam Altman ha messo in scena il lancio più clamoroso di un prodotto in questi ultimi anni. La lista d’attesa per chi vuole scaricare l’applicazione sta mettendo virtualmente “in fila” milioni di utenti: il sogno di qualsiasi imprenditore, creare aspettative su un prodotto e “code fuori dal negozio”.
Indice degli argomenti
Cos’è ChatGPT Health?
Inevitabilmente, il mondo si è diviso in due: chi parla benissimo di ChatGPT Health, e chi ne parla malissimo. Difficile trovare la “mezza misura”.
Ma partiamo dall’inizio: cos’è, ChatGPT Health?
L’idea di base è tanto semplice quanto ambiziosa: realizzare il “super” assistente personale capace di “potenziare” le capacità di un individuo qualsiasi di gestire una situazione di dubbio rispetto al suo stato di salute/malattia.
Non fa diagnosi, non assume decisioni, non si sostituisce al medico.
Nella sua configurazione ottimale, l’applicazione si integra con la cartella clinica (sarebbe meglio dire “con tutta la storia clinica”) del paziente e con i vari devices utilizzati per rilevare parametri, costruendosi così la sua knowledge base a partire dalla quale adempiere alla sua missione di super assistente personale, fornitore di supporto cognitivo.
OpenAI insiste molto su questo ruolo di supporto cognitivo, e promette ai suoi utenti che diventeranno più capaci di gestire la relazione col loro medico, “facendo le domande giuste e migliorando quindi la qualità di relazione medico-paziente”.
E a questo punto, i medici cominciano a preoccuparsi…
ChatGPT Health funziona davvero?
Tra le mille regole che sovraintendono il mondo dell’AI generativa, ce n’è una semplicissima ma sovente sottovalutata: la qualità della risposta data dipende per la sua maggior parte dalla qualità della domanda sottoposta.
E qui risiede il vulnus di ChatGPT Health, un punto debole che poi – pensandoci bene – non è troppo diverso da quello che accade ogni giorno in qualsiasi ambulatorio di qualsiasi medico in qualsiasi angolo del pianeta: i pazienti fanno domande sbagliate, perché il loro modo di relazionarsi con la salute (e con la malattia) non è poi così tanto diverso da quello col quale i nostri antenati si rivolgevano agli aruspici. Altro che “patient empowerment”. Il paziente entra in ambulatorio con in mente un’unica cosa: cosa ho, cosa mi può succedere.
All’estremo opposto c’è il paziente “fenomeno”, quello che entra in ambulatorio con già una diagnosi e una prognosi in mente e, se il medico non gli dà ragione, allora cambia medico.
In entrambi i casi, la probabilità che il paziente “azzecchi” la domanda è decisamente scarsa.
Uno scenario tipico
Proviamo a immaginarci di essere dentro un ambulatorio durante una visita: la prima obiezione del paziente, normalmente, è: “mio cognato mi ha detto che…”.
Prossimamente avremo obiezioni differenti, tipo “ma Dottore, guardi che ChatGPT mi ha detto che sto per avere un infarto!”.
Il potenziale positivo di ChatGPT Health è dato dal suo essere una vera e propria “infrastruttura” e non un semplice “generatore di risposte”, di fornire supporto partendo dall’analisi della storia clinica dell’interpellante e non da una rassegna di letteratura clinica.
Esattamente come già succede nella vita “normale”, questo potenziale positivo si manifesta solamente a fronte di un paziente intelligente e consapevole, dotato di senso critico e di capacità di discernere.
La Medicina non è una scienza esatta
Il vero problema da affrontare è un altro: per una serie lunghissima di ragioni, molte delle quali hanno sicuramente a che fare con l’avvento delle tecnologie digitali, in mezzo mondo si è diffusa l’opinione in base alla quale la Medicina viene considerata una scienza esatta, qualcosa che può essere “racchiusa” in un algoritmo complesso a piacere.
Peccato che la Medicina non sia una scienza esatta, ossia una disciplina scientifica in grado di associare un errore alle proprie previsioni e ai propri risultati.
Abbiamo dimenticato Ippocrate, quando diceva «Io molto loderei quel medico che poco sbaglia, ma la certezza raramente è data vedere» (“Antica Medicina”).
Ed è esattamente qui che risiede il nocciolo del problema: la diagnosi non è il risultato di un’equazione.
L’Intelligenza Artificiale può “avvicinarsi” a una diagnosi, può – soprattutto – fornire elementi utilissimi a chi quella diagnosi la deve fare.
Il resto è marketing.
ChatGPT Health funzionerà se…
Tutto questo in OpenAI lo sanno benissimo, e in tutta la documentazione da loro prodotta non ci sono equivoci che vanno in senso contrario a questo principio.
Però – e torniamo al tema delle abilità di comprensione di chi legge – rimane il forte sospetto che alla fine ChatGPT Health sarà utilizzata malissimo.
Il che non vuole assolutamente dire che non funzioni. Con una certa dose di paradosso, il “patient empowerment” non sarà potenziato dai vari ChatGPT Health, ma dagli operatori sanitari che saranno capaci di insegnare ai loro pazienti come utilizzare al meglio questi strumenti.







