Normativa E Privacy

Referti medici e Intelligenza Artificiale: le dritte per evitare rischi



Indirizzo copiato

Diagnosi affidate all’AI generativa e referti caricati online: cresce un fenomeno sottovalutato, ma ad alto rischio. Il Garante per la Privacy richiama l’attenzione di professionisti e sviluppatori su questo nodo cruciale dell’innovazione in Sanità

Pubblicato il 7 ago 2025



referti-medici-intelligenza-artificiale-allarme-Garante-Privacy

L’uso crescente dell’AI Generativa in Sanità, applicata a un’enorme mole di dati sensibili dei pazienti, sta aprendo nuove sfide relative alla privacy e all’uso responsabile di tali dati.
Mentre l’innovazione corre, infatti, le garanzie a tutela dei diritti fondamentali dei pazienti rischiano di restare indietro.

È quanto evidenziato in una nota del Garante per la protezione dei dati personali, che mette in guardia rispetto a una pratica sempre più comune: l’utilizzo di piattaforme di intelligenza artificiale generativa per ottenere interpretazioni, commenti o persino diagnosi a partire da referti medici dei pazienti.

Non si tratta solo di una questione tecnologica, ma di una vera e propria questione sistemica che tocca i pilastri del nostro sistema sanitario: il rispetto della privacy, l’attendibilità clinica, il ruolo del medico e le responsabilità degli sviluppatori di AI.

Di fronte a questa complessità, il Garante lancia un allarme sui rischi di un uso scorretto di tali applicativi e strumenti digitali basati sull’AI e fornisce una serie di indicazioni destinate a tutti gli attori coinvolti: dai cittadini ai professionisti sanitari, fino agli sviluppatori di tecnologie.

Referti medici e Intelligenza Artificiale: i principali rischi

La nota del Garante mette in luce una prassi che, sebbene nasca da esigenze comprensibili (velocità, accessibilità, sperimentazioni), può tradursi in conseguenze molto serie: il caricamento di documenti clinici e referti medici su piattaforme di intelligenza artificiale generativa non progettate a scopi diagnostici.

In particolare, il Garante avverte rispetto a due ordini di rischio:

  1. La perdita di controllo sui dati sanitari, considerati tra i dati personali più sensibili e tutelati dal GDPR e dalle normative italiane ed europee.
  2. L’affidamento eccessivo a risposte generate da AI, che spesso non sono strumenti certificati né sottoposti alle verifiche previste per i dispositivi medici. Come chiarito nell’approfondimento di HealthTech360Intelligenza Artificiale e dispositivi medici”, infatti, l’utilizzo dell’AI nei dispositivi medici comporta già oggi il rispetto di specifici requisiti a tutela della salute dei pazienti.

Il fenomeno si manifesta sotto forma di utilizzi sempre più disinvolti delle AI generative da parte di utenti che, ad esempio:

  • caricano una radiografia per chiedere un parere su una presunta frattura;
  • incollano i valori di un esame ematico per sapere se rientrano nei range;
  • condividono cartelle cliniche elettroniche analizzate con l’AI per cercare conferme a una diagnosi ricevuta o esplorare ipotesi alternative.

Il problema, sottolinea l’Autorità, è duplice. Da un lato, l’utente non sa se e come quei dati verranno conservati e utilizzati dalla piattaforma. Dall’altro, si rischia di ricevere indicazioni errate o fuorvianti da sistemi che non hanno alcuna autorizzazione o validazione per compiere atti medici e sanitari. In questo senso, l’uso dell’intelligenza artificiale in ambito medico non può e non deve essere confuso con una vera consulenza medica.

Referti medici, Intelligenza Artificiale e trattamento dei dati

Un altro rischio evidenziato dal Garante nell’ambito referti medici e Intelligenza Artificiale riguarda il trattamento dei dati una volta caricati. In base alle policy adottate, infatti:

  • i dati potrebbero essere cancellati immediatamente dopo l’interazione;
  • potrebbero essere conservati temporaneamente, per scopi di miglioramento del servizio;
  • oppure, come spesso accade, potrebbero essere riutilizzati per addestrare l’algoritmo e migliorare le prestazioni future della piattaforma.

Molte piattaforme lasciano agli utenti la possibilità di scegliere se contribuire o meno all’addestramento dei modelli. Tuttavia, il livello di trasparenza e accessibilità di queste opzioni è molto variabile e spesso gli utenti non sono pienamente consapevoli di ciò che accade dietro le quinte. Nel caso di referti medici, questo equivale a un potenziale trasferimento di informazioni sanitarie verso soggetti terzi, spesso con sede extra-UE, e quindi soggetti a normative meno stringenti.

Per i professionisti della Sanità, questo passaggio è particolarmente delicato. Chi lavora in contesti ospedalieri o ambulatoriali, ad esempio, potrebbe trovarsi nella “tentazione” di testare un referto o una valutazione con un modello di AI. Farlo senza autorizzazione, e senza adeguate misure di protezione dei dati, potrebbe costituire una grave violazione deontologica e normativa.

Supervisione umana: l’Intelligenza Artificiale non può sostituire il Medico

Il principio della supervisione umana qualificata è uno dei cardini del Regolamento europeo sull’Intelligenza Artificiale (AI Act) e rappresenta il punto di equilibrio tra l’adozione dell’AI e la tutela dell’interesse pubblico (leggi anche: “Perché l’AI Act è una scommessa da vincere”).

L’intervento umano deve essere garantito:

  • durante lo sviluppo dell’algoritmo, per evitare bias o errori di progettazione;
  • nella fase di addestramento e testing, per calibrare le risposte;
  • nell’utilizzo finale del sistema, per interpretare correttamente i risultati generati.

Nel contesto sanitario, ciò significa che nessun sistema di AI – per quanto sofisticato – può sostituire il giudizio clinico. La macchina può suggerire, sintetizzare, evidenziare pattern o anomalie, ma la decisione diagnostica e terapeutica resta una prerogativa del medico.

Al proposito, qui su HealthTech360, siamo stati sempre chiari su quale sia la nostra posizione: ChatGPT (e l’AI in generale) non può fare il Medico. Non può sostituirlo in tutto e per tutto. Ma, se utilizzato con responsabilità e regole chiare a protezione dei pazienti, può essergli certamente di grandissimo aiuto

Questo principio va integrato nei processi operativi di tutte le strutture sanitarie che intendano adottare soluzioni di AI, incluse le tecnologie di supporto alla refertazione automatica, all’analisi delle immagini o alla stratificazione del rischio clinico.

Serve un disegno sistemico che definisca:

  • ruoli e responsabilità degli operatori umani;
  • soglie di intervento e validazione dei risultati;
  • modalità di gestione degli errori e dei falsi positivi/negativi;
  • strumenti di audit e tracciabilità dei processi decisionali assistiti da AI.

Intelligenza Artificiale in Sanità: la via indicata dal Garante

Il Garante, nell’intento di fornire ai professionisti sanitari una bussola per orientarsi rispetto all’uso responsabile dell’Intelligenza Artificiale per i referti medici (e non solo) richiama anche alcuni documenti chiave. In particolare:

Entrambi i documenti indicano con chiarezza la posizione dell’Autorità: serve un approccio olistico alla progettazione dei sistemi intelligenti che tenga conto non solo delle performance algoritmiche, ma anche delle implicazioni legali, etiche e cliniche. L’AI può migliorare la Sanità e il Servizio Sanitario Nazionale, ma solo se lo fa nel rispetto dei diritti della persona, non contro di essi.

AI in Sanità: innovare con responsabilità

L’uso dell’AI in Sanità, dunque, non è un tabù. Anzi, può rappresentare una straordinaria occasione di potenziamento della capacità diagnostica e di efficientamento dei processi. Tuttavia, come spesso accade con le tecnologie di frontiera, l’entusiasmo rischia di superare la prudenza, soprattutto quando l’innovazione è accessibile a tutti e priva di barriere d’ingresso.

La nota del Garante, in tal senso, rappresenta sia una sorta di “promemoria istituzionale” sia una chiamata alla responsabilità di tutti gli attori dell’ecosistema sanitario.

È ora, insomma, che il sistema sanitario – pubblico e privato – rifletta seriamente su come integrare l’AI generativa nei propri processi. Non con esperimenti amatoriali o scorciatoie digitali, ma con visione, progettualità, rigore e rispetto della privacy dei pazienti. L’etica, la privacy e la qualità dell’assistenza sanitaria non devono essere visti come un ostacolo all’innovazione in Sanità, bensì come un’opportunità per metterla in atto nell’interesse di tutti.

Articoli correlati

Articolo 1 di 5