Human rights

Bias nell’Intelligenza Artificiale in Sanità: perché nascono e come ridurli



Indirizzo copiato

I Large Language Models in ambito medico possono perpetuare stereotipi sociali. Per il sistema sanitario italiano e per quelli di tutto il mondo, è fondamentale adottare un approccio etico e responsabile nell’implementazione dell’AI, garantendo che i benefici di questa tecnologia siano accessibili a tutti, indipendentemente dalla razza o dall’etnia

Pubblicato il 31 mag 2024

Marcello Di Pumpo

Medico specialista in Igiene e Medicina Preventiva AULSS6 Padova – Segretario SIIAM

Giuseppina Granvillano

Medico in formazione specialistica in Igiene e Medicina Preventiva -Università di Catania

Alberto Lino Masiero

Medico specialista in Igiene e Medicina Preventiva AST Ancona

Luigi De Angelis

Presidente SIIAM



bias-intelligenza-artificiale-sanita

I Large Language Models (LLMs, Grandi Modelli Linguistici), come ad esempio GPT-4 (Generative Pre-trained Transformer 4) di OpenAI, sono modelli di AI (Intelligenza Artificiale).
Essi hanno mostrato un grande potenziale nell’assistenza sanitaria, per compiti come l’automazione di attività amministrative, il supporto alla scrittura delle lettere di dimissione e alla risposta alle domande dei pazienti, fino ad assistenza alla pianificazione del trattamento clinico.[1]

Continua a leggere questo articolo

Articoli correlati