L’impiego di strumenti di Intelligenza Artificiale nelle sperimentazioni cliniche rappresenta una delle trasformazioni più profonde per il settore delle Scienze della vita.
Algoritmi di machine learning e modelli predittivi sono utilizzati in fasi sempre più cruciali: dalla scoperta di nuovi farmaci e molecole, alla selezione dei pazienti, fino al monitoraggio post-marketing.
Se, da un lato, queste tecnologie promettono maggiore efficienza, dall’altro aprono questioni etiche e regolatorie di ampia portata.
Durante una tavola rotonda organizzata dall’Osservatorio Life Science Innovation del Politecnico di Milano, Carlo Petrini – Direttore dell’Unità di Bioetica dell’Istituto Superiore di Sanità e Presidente del Centro di Coordinamento Nazionale dei Comitati Etici – ha richiamato l’attenzione sulle principali sfide aperte in questo ambito.
Indice degli argomenti
Etica e intelligenza artificiale: dai principi alle regole concrete
Secondo il Direttore, parlare di etica dell’intelligenza artificiale significa andare oltre le enunciazioni di principio e costruire strumenti concreti per i comitati etici e le agenzie di valutazione. Il richiamo è chiaro: “Non basta ripetere i principi generali, è necessario tradurli in criteri operativi”.
Negli ultimi anni – in ambito etica e intelligenza artificiale – si sono susseguiti una serie di documenti programmatici, ma spesso a mancare sono indicazioni precise per chi deve valutare un protocollo clinico che integra algoritmi di AI.
Un riferimento di partenza importante è rappresentato dalle linee guida dell’Organizzazione Mondiale della Sanità (OMS) sull’uso etico e responsabile dell’AI in sanità, pubblicate nel 2021. Il documento indica 6 principi fondamentali:
- tutela dei diritti umani;
- trasparenza;
- responsabilità;
- inclusione;
- sostenibilità e cooperazione.
Ma, come ha osservato Petrini, la sfida è tradurre questi valori in check-list, procedure e standard verificabili da parte dei comitati etici.
Studi sull’AI e studi con l’AI: una differenza importante
Un passaggio importante per le ricadute etiche dell’uso dell’AI è la distinzione tra studi “sull’AI” e studi “con l’AI”.
Studi sull’AI
L’oggetto di ricerca è l’algoritmo stesso: la sperimentazione punta a valutarne robustezza, performance e limiti.
Studi con l’AI
L’AI è uno strumento utilizzato all’interno di un trial tradizionale: ad esempio, per definire i criteri di eleggibilità, selezionare i pazienti o analizzare i dati raccolti.
Questa differenza non è accademica. Secondo Petrini, comporta ricadute dirette sul piano etico: negli studi “con l’AI” il rischio è che la tecnologia influenzi parametri clinici senza che vi sia piena consapevolezza dei suoi limiti o bias. Per questo, i comitati etici devono essere messi nelle condizioni di valutare non solo la validità scientifica dello studio, ma anche l’affidabilità dello strumento tecnologico che lo supporta.
Etica e intelligenza artificiale: le lacune del Regolamento MDR per le sperimentazioni cliniche
Sul fronte normativo, Petrini ha richiamato due articoli chiave del Regolamento europeo sui dispositivi medici (MDR): il 62 e l’82, che definiscono i requisiti per le sperimentazioni cliniche. Entrambi non forniscono però indicazioni specifiche per valutare protocolli che includono AI.
Il risultato è una zona grigia regolatoria: i comitati etici si trovano a dover esprimere valutazioni senza criteri condivisi, con il rischio di approcci disomogenei tra Paesi e perfino tra istituzioni all’interno della stessa nazione. Una frammentazione che rischia di rallentare l’approvazione degli studi e di scoraggiare l’adozione di innovazioni utili.
Uso dell’AI nel Pharma
Secondo i dati presentati dall’Osservatorio, le aziende farmaceutiche mostrano già un’ampia adozione dell’AI:
- il 52% la utilizza nella progettazione e nel monitoraggio degli studi clinici;
- il 59% per la redazione automatizzata di documenti amministrativi;
- il 78% per la ricerca e l’analisi di letteratura scientifica.
Questo significa che le sperimentazioni con AI non sono più un’ipotesi futura, ma una realtà quotidiana che necessita di criteri di valutazione chiari.
La prospettiva dei comitati etici
In questo scenario, i comitati etici diventano l’anello cruciale della catena di controllo. A loro spetta verificare che:
- i protocolli rispettino i diritti dei pazienti;
- i dati siano raccolti e gestiti con trasparenza;
- i rischi siano proporzionati ai benefici attesi.
Per farlo, però, occorrono nuove competenze. Valutare un algoritmo di machine learning non richiede solo conoscenze cliniche, ma anche statistiche, informatiche e di sicurezza informatica. Petrini ha sottolineato la necessità di formazione multidisciplinare e di un dialogo continuo con esperti esterni in grado di supportare i comitati nella valutazione tecnica dei protocolli.
L’Osservatorio ha evidenziato come meno della metà delle aziende del settore Life Science dichiari di avere già oggi le risorse e le competenze necessarie per implementare tecnologie di AI. Questa carenza riguarda anche gli organismi di valutazione: senza un investimento strutturato in formazione, il rischio è di rallentare l’intero ecosistema.
Verso un’armonizzazione europea dell’uso dell’AI
La soluzione alle sfide relative a etica e intelligenza artificiale non possono essere lasciate alle singole autorità nazionali. Il Direttore dell’Unità di Bioetica dell’Istituto Superiore di Sanità ha ribadito che servono linee guida armonizzate a livello europeo, capaci di garantire uniformità e coerenza nelle valutazioni. Anche perché l’AI non conosce confini: gli stessi algoritmi possono essere testati in più Paesi, rendendo indispensabile un quadro condiviso che eviti difformità.
Il riferimento è al Reflection Paper EMA del 2024, documento che ha definito principi comuni per l’uso dell’AI lungo tutto il ciclo di vita del farmaco. Insieme alle raccomandazioni del Medical Device Coordination Group del 2025, questo documento rappresenta un importante passo avanti, ma resta il problema della messa a terra: trasformare raccomandazioni generali in strumenti operativi utilizzabili dai comitati etici.






