L’intelligenza artificiale in medicina deve contrastare i pregiudizi e non rafforzarli ulteriormente: iniezioni

Blog

CasaCasa / Blog / L’intelligenza artificiale in medicina deve contrastare i pregiudizi e non rafforzarli ulteriormente: iniezioni

Apr 15, 2023

L’intelligenza artificiale in medicina deve contrastare i pregiudizi e non rafforzarli ulteriormente: iniezioni

From By Ryan Levi , Dan Gorenstein

Da

Di

Ryan Levi

,

Dan Gorenstein

È ancora agli inizi per l’intelligenza artificiale nel settore sanitario, ma in alcuni strumenti sono già stati riscontrati pregiudizi razziali. Qui, gli operatori sanitari di un ospedale della California protestano contro l’ingiustizia razziale dopo l’omicidio di George Floyd. MARK RALSTON/AFP tramite Getty Images nascondi didascalia

È ancora agli inizi per l’intelligenza artificiale nel settore sanitario, ma in alcuni strumenti sono già stati riscontrati pregiudizi razziali. Qui, gli operatori sanitari di un ospedale della California protestano contro l’ingiustizia razziale dopo l’omicidio di George Floyd.

Medici, data scientist e dirigenti ospedalieri ritengono che l’intelligenza artificiale possa aiutare a risolvere quelli che fino ad ora sono stati problemi irrisolvibili. L’intelligenza artificiale si sta già dimostrando promettente per aiutare i medici a diagnosticare il cancro al seno, leggere le radiografie e prevedere quali pazienti necessitano di maggiori cure. Ma man mano che l’entusiasmo cresce, c’è anche un rischio: questi nuovi potenti strumenti possono perpetuare le disuguaglianze razziali di lunga data nel modo in cui viene fornita l’assistenza.

"Se sbagli tutto questo, puoi davvero, davvero danneggiare le persone radicando ulteriormente il razzismo sistemico nel sistema sanitario", ha affermato il dottor Mark Sendak, uno scienziato capo dei dati presso il Duke Institute for Health Innovation.

Questi nuovi strumenti sanitari sono spesso realizzati utilizzando l’apprendimento automatico, un sottoinsieme dell’intelligenza artificiale in cui gli algoritmi sono addestrati per trovare modelli in grandi set di dati come informazioni di fatturazione e risultati di test. Questi modelli possono prevedere esiti futuri, come la possibilità che un paziente sviluppi la sepsi. Questi algoritmi possono monitorare costantemente ogni paziente in un ospedale contemporaneamente, avvisando i medici di potenziali rischi che altrimenti il ​​personale oberato di lavoro potrebbe non cogliere.

I dati su cui si basano questi algoritmi, tuttavia, spesso riflettono le disuguaglianze e i pregiudizi che affliggono da tempo l’assistenza sanitaria statunitense. La ricerca mostra che i medici spesso forniscono cure diverse ai pazienti bianchi e ai pazienti di colore. Queste differenze nel modo in cui vengono trattati i pazienti vengono immortalate nei dati, che vengono poi utilizzati per addestrare gli algoritmi. Anche le persone di colore sono spesso sottorappresentate nei set di dati di addestramento.

"Quando impari dal passato, replichi il passato. Rafforzi ulteriormente il passato", ha detto Sendak. "Perché prendi le disuguaglianze esistenti e le tratti come l'aspirazione a come dovrebbe essere fornita l'assistenza sanitaria".

Uno studio fondamentale del 2019 pubblicato sulla rivista Science ha scoperto che un algoritmo utilizzato per prevedere le esigenze di assistenza sanitaria di oltre 100 milioni di persone era distorto a sfavore dei pazienti neri. L’algoritmo si basava sulla spesa sanitaria per prevedere i futuri bisogni sanitari. Ma con il minore accesso alle cure, storicamente, i pazienti neri spesso spendevano meno. Di conseguenza, i pazienti neri dovevano essere molto più malati per poter ricevere cure extra secondo l’algoritmo.

"Essenzialmente stai camminando dove ci sono mine terrestri", ha detto Sendak riguardo al tentativo di costruire strumenti di intelligenza artificiale clinica utilizzando dati che potrebbero contenere errori, "e [se non stai attento] le tue cose esploderanno e danneggeranno le persone. ."

Nell'autunno del 2019, Sendak ha collaborato con la dottoressa Emily Sterrett, medico di medicina d'urgenza pediatrica, per sviluppare un algoritmo per aiutare a prevedere la sepsi infantile nel pronto soccorso del Duke University Hospital.

La sepsi si verifica quando il corpo reagisce in modo eccessivo a un’infezione e attacca i propri organi. Anche se rara nei bambini – circa 75.000 casi all’anno negli Stati Uniti – questa condizione prevenibile è fatale per quasi il 10% dei bambini. Se presi rapidamente, gli antibiotici trattano efficacemente la sepsi. Ma la diagnosi è difficile perché i primi sintomi tipici – febbre, frequenza cardiaca elevata e numero elevato di globuli bianchi – imitano altre malattie, incluso il comune raffreddore.

Un algoritmo in grado di prevedere il rischio di sepsi nei bambini rappresenterebbe un punto di svolta per i medici di tutto il paese. "Quando è in gioco la vita di un bambino, avere un sistema di backup che l'intelligenza artificiale potrebbe offrire per rafforzare parte della fallibilità umana è davvero, davvero importante", ha detto Sterrett.