AI Governance

Intelligenza Artificiale in Sanità: rischi, criticità e aspetti etico-normativi



Indirizzo copiato

Ogni trasformazione tecnologica porta con sé rischi e dilemmi. L’adozione dell’IA in Sanità, se non adeguatamente regolata, può generare nuove forme di disuguaglianza, vulnerabilità e opacità decisionale

Pubblicato il 17 dic 2025

Federico Serra

Presidente Health City Institute e International Public Policy Advocacy Association – Segretario generale Osservatorio sulla salute bene comune Università Cattolica del Sacro Cuore – Senior member Royal Institute of International Affairs

Lucio Corsaro

Esperto di strategia – marketing – analisi statistiche e comportamentali. Fondatore della start up BHAVE

Iacopo Cricelli

CEO & Founder Genomedics

Erik Lagolio

MMG e innovatore in sanità digitale. Membro del Comitato Scientifico della piattaforma AGENAS AI



intelligenza-artificiale-sanita-etica-normativa-governance

La governance dell’IA nel SSN deve fondarsi su una visione preventiva dei rischi e su un approccio basato su etica, responsabilità e fiducia.

Bias algoritmico e discriminazioni sistemiche

Gli algoritmi apprendono dai dati, e i dati riflettono la realtà: se la realtà contiene bias, anche l’IA li riproduce. In ambito sanitario, ciò può tradursi in diagnosi meno accurate per specifiche categorie (ad esempio donne, minoranze etniche o anziani), se queste sono sottorappresentate nei dataset di addestramento. Per questo è essenziale che i dataset utilizzati siano inclusivi, rappresentativi e sottoposti a revisione etica, con controlli sistematici di performance differenziale.

Trasparenza, accountability e explainability

L’uso di algoritmi opachi – le cosiddette black boxes – è incompatibile con la natura pubblica del SSN. Ogni decisione automatizzata deve essere spiegabile e verificabile: il principio dell’“explainable AI” non è solo tecnico, ma giuridico ed etico. Il medico deve poter comprendere come e perché l’algoritmo giunge a una determinata raccomandazione, per poterla integrare nel proprio giudizio clinico.

Sicurezza dei dati e privacy

I dati sanitari sono tra i più sensibili che esistano.

Il loro trattamento per fini di IA richiede standard elevatissimi di sicurezza, conformi al Regolamento Generale sulla Protezione dei Dati (GDPR) e alle linee guida europee sull’EHDS. Le architetture di dati federati, in cui l’analisi avviene localmente senza trasferimento dei dati grezzi, rappresentano una soluzione concreta per conciliare innovazione e tutela della privacy.

Formazione e cultura digitale

Uno dei maggiori rischi dell’adozione dell’IA nel SSN è la resistenza culturale. Molti professionisti non sono formati per comprendere la logica degli algoritmi o per interpretarne i risultati. Senza un investimento serio in competenze digitali, anche le tecnologie più avanzate restano inutilizzate o mal integrate. La formazione deve diventare parte integrante della strategia nazionale, coinvolgendo università, ordini professionali e società scientifiche.

Questioni di responsabilità giuridica

Un ulteriore nodo riguarda la responsabilità medico-legaledelle decisioni supportate da IA. Chi risponde in caso di errore? Il medico, l’azienda produttrice, l’amministrazione sanitaria? È necessario sviluppare un quadro giuridico specifico che chiarisca la responsabilità condivisa e introduca meccanismi di certificazione degli algoritmi a uso clinico, sul modello del Regolamento europeo sull’AI Act (2024).

La governance dell’Intelligenza Artificiale nel Servizio Sanitario Nazionale

L’implementazione dell’Intelligenza Artificiale nel SSN richiede una governance chiara, multilivello e trasparente. Senza una regia istituzionale solida, l’IA rischia di generare frammentazione, diseguaglianze e sperimentazioni isolate, non coordinabili né scalabili a livello nazionale. La governance deve essere intesa come l’insieme delle strutture, delle regole, delle competenze e dei processi che consentono di orientare, controllare e valutare lo sviluppo dell’IA in sanità.

Livelli di responsabilità istituzionale

A livello centrale, il Ministero della Salute deve assumere il ruolo di indirizzo strategico e coordinamento nazionale, definendo linee guida, standard tecnici, criteri di qualità e procedure di certificazione per i sistemi di IA a uso sanitario. Il Dipartimento per la Trasformazione Digitale e l’Agenzia per l’Italia Digitale (AgID) hanno la responsabilità di garantire la coerenza tecnologica e l’interoperabilità tra piattaforme regionali e nazionali, coordinando l’evoluzione del Fascicolo Sanitario Elettronico 2.0 con gli standard europei di interoperabilità semantica e sintattica.

L’Istituto Superiore di Sanità (ISS), in collaborazione con università e IRCCS, deve fungere da autorità tecnico-scientifica per la valutazione dei modelli di IA, certificandone la validità clinica e l’affidabilità statistica. L’AIFA svolge un ruolo specifico nell’ambito della farmacovigilanza e della medicina personalizzata, validando algoritmi impiegati nei processi di autorizzazione, monitoraggio e pricing dei farmaci. Le Regioni rappresentano l’anello operativo della governance: implementano i sistemi, sperimentano progetti pilota e gestiscono la formazione del personale, garantendo che i modelli adottati rispettino standard nazionali e criteri di equità.

Una cabina di regia nazionale per l’IA in sanità

Per assicurare coerenza e supervisione, si propone l’istituzione di una “Cabina di Regia Nazionale per l’Intelligenza Artificiale in Sanità”, coordinata dal Ministero della Salute e composta da rappresentanti di ISS, AIFA, AgID, Conferenza Stato–Regioni, Consiglio Superiore di Sanità e CNR.

Questa struttura avrebbe il compito di:

• definire un quadro strategico pluriennale;

• stabilire i criteri di certificazione e validazione degli algoritmi;

• creare un registro nazionale dei modelli di IA utilizzati in ambito clinico e gestionale;

• valutare l’impatto delle applicazioni di IA sui costi, sulla qualità delle cure e sugli esiti di salute;

• promuovere la cooperazione internazionale e la partecipazione ai progetti europei di ricerca.

Interoperabilità e architettura dei dati

L’interoperabilità è la condizione tecnica della governance. Senza standard condivisi e sistemi compatibili, l’IA rischia di alimentarsi di dati incompleti o frammentati, compromettendo la qualità dei risultati. Il Piano Triennale per la Sanità Digitale indica come priorità la realizzazione di un’infrastruttura di dati sanitari federata, che consenta alle Regioni di mantenere la titolarità dei propri dati, garantendo al tempo stesso la possibilità di elaborazioni comuni a fini di ricerca, pianificazione e sanità pubblica. Tale architettura deve essere costruita secondo i principi di sicurezza, trasparenza e privacy by design, integrando i meccanismi di pseudonimizzazione previsti dallo Spazio Europeo dei Dati Sanitari.

L’etica come infrastruttura della salute digitale

L’adozione dell’Intelligenza Artificiale nel SSN solleva questioni etiche profonde che vanno oltre la tecnologia. Si tratta di preservare l’essenza umana della medicina – la relazione, la fiducia, l’empatia – in un contesto sempre più mediato da algoritmi. L’etica non può essere un accessorio della trasformazione digitale: deve costituirne la sua infrastruttura portante.

I principi guida dell’OMS

L’Organizzazione Mondiale della Sanità, nel documento Ethics and Governance of Artificial Intelligence for Health (2021), ha enunciato sei principi universali per l’uso dell’IA in sanità:

1. Proteggere l’autonomia umana;

2. Promuovere il benessere e la sicurezza dei pazienti;

3. Garantire trasparenza e comprensibilità dei sistemi;

4. Assicurare responsabilità e accountability;

5. Favorire inclusione ed equità;

6. Promuovere una sostenibilità ambientale e sociale delle tecnologie.

Questi principi, se pienamente recepiti nel contesto del SSN, possono orientare un modello di etica pubblica dell’IA sanitaria, fondato sulla centralità della persona e sul rispetto dei diritti fondamentali.

L’etica come strumento di fiducia

La fiducia dei cittadini è la vera moneta della sanità digitale. Senza fiducia, anche gli algoritmi più accurati restano inutilizzati. Occorre dunque garantire trasparenza sui dati, sulla provenienza dei modelli e sulle logiche di funzionamento.

Ogni applicazione di IA dovrebbe essere accompagnata da una valutazione etica ex ante, analoga alle valutazioni di impatto ambientale, che verifichi l’assenza di rischi discriminatori e la conformità ai principi di equità e autonomia del paziente.

Verso un Codice Etico Nazionale per l’IA in Sanità

Si propone la redazione di un Codice Etico Nazionale per l’Intelligenza Artificiale in Sanità, elaborato dal Ministero della Salute in collaborazione con il Garante per la Privacy, il Comitato Nazionale per la Bioetica, ISS e società scientifiche.

Questo codice dovrebbe definire:

• Le regole per l’uso clinico degli algoritmi;

• Le procedure di audit etico;

• I criteri di equità dei dataset;

• La responsabilità condivisa tra professionisti e produttori;

• Le modalità di informazione al cittadino sul ruolo dell’IA nel percorso di cura;

L’etica, in questo senso, non è un limite all’innovazione, ma la condizione della sua legittimità sociale.

Il presente approfondimento è tratto dal policy paper “Intelligenza Artificiale e Servizio Sanitario Nazionale: verso un ecosistema di salute digitale sostenibile, equo e umano” del quale sono autori Federico Serra, Lucio Corsaro, Iacopo Cricelli ed Erik Lagolio

Articoli correlati