Medicina, intelligenza artificiale e pregiudizi: i dati sbagliati comprometteranno la buona tecnologia?

I modelli di intelligenza artificiale possono aiutare a prevedere e prevenire le malattie. Ma una recente ricerca mette in luce le sfide che devono affrontare per fornire informazioni utili a tutti.

Medicina, IA e pregiudizi: i dati sbagliati comprometteranno la buona tecnologia?

Di Natalie Sabin

18 maggio 2022 C Immaginate di entrare nella Biblioteca del Congresso, con i suoi milioni di libri, e di avere l'obiettivo di leggerli tutti. Impossibile, vero? Anche se riusciste a leggere ogni parola di ogni opera, non sareste in grado di ricordare o capire tutto, anche se ci provaste per tutta la vita.

Supponiamo che abbiate un cervello superpotente in grado di leggere e comprendere tutte le informazioni. Avreste comunque un problema: non sapreste cosa non è stato trattato in quei libri, quali domande non hanno risposto, quali esperienze hanno tralasciato.

Allo stesso modo, i ricercatori di oggi hanno una quantità impressionante di dati da vagliare. Tutti gli studi peer-reviewed del mondo contengono più di 34 milioni di citazioni. Altri milioni di dati esplorano il modo in cui elementi come gli esami del sangue, l'anamnesi medica e familiare, la genetica e le caratteristiche sociali ed economiche influiscono sui risultati dei pazienti.

L'intelligenza artificiale ci permette di utilizzare più materiale che mai. I modelli emergenti possono organizzare rapidamente e con precisione enormi quantità di dati, prevedendo i potenziali esiti dei pazienti e aiutando i medici a prendere decisioni sui trattamenti o sulle cure preventive.

La matematica avanzata è molto promettente. Alcuni algoritmi C istruzioni per la risoluzione di problemi C possono diagnosticare il cancro al seno con maggiore precisione dei patologi. Altri strumenti di intelligenza artificiale sono già in uso in ambito medico, consentendo ai medici di consultare più rapidamente la storia clinica di un paziente o di migliorare la loro capacità di analizzare le immagini radiologiche.

Ma alcuni esperti nel campo dell'intelligenza artificiale in medicina suggeriscono che, mentre i vantaggi sembrano ovvi, pregiudizi meno evidenti possono minare queste tecnologie. Infatti, avvertono che i pregiudizi possono portare a un processo decisionale inefficace o addirittura dannoso per la cura dei pazienti.

Nuovi strumenti, stessi pregiudizi?

Sebbene molte persone associno i pregiudizi al pregiudizio personale, etnico o razziale, in senso lato, i pregiudizi sono una tendenza ad orientarsi in una certa direzione, a favore o contro una determinata cosa.

In senso statistico, i pregiudizi si verificano quando i dati non rappresentano pienamente o accuratamente la popolazione che si intende modellare. Ciò può accadere quando i dati non sono corretti all'inizio o quando i dati di una popolazione vengono applicati per errore a un'altra.

Nella letteratura medica esistono entrambi i tipi di bias, statistico e razziale/etnico. Alcune popolazioni sono state studiate maggiormente, mentre altre sono sottorappresentate. Ciò solleva la questione: Se costruiamo modelli di intelligenza artificiale a partire dalle informazioni esistenti, stiamo solo passando vecchi problemi alla nuova tecnologia?

Questa è sicuramente una preoccupazione, afferma David M. Kent, MD, direttore del Predictive Analytics and Comparative Effectiveness Center del Tufts Medical Center.

In un nuovo studio, Kent e un gruppo di ricercatori hanno esaminato 104 modelli che prevedono le malattie cardiache C modelli progettati per aiutare i medici a decidere come prevenire la patologia. I ricercatori volevano sapere se i modelli, che in precedenza avevano dato risultati accurati, avrebbero dato risultati altrettanto buoni quando testati su un nuovo gruppo di pazienti.

I risultati?

I modelli hanno fatto peggio di quanto ci si potesse aspettare, dice Kent.

Non erano sempre in grado di distinguere i pazienti ad alto rischio da quelli a basso rischio. A volte, gli strumenti hanno sovrastimato o sottostimato il rischio di malattia dei pazienti. Allarmante è il fatto che la maggior parte dei modelli aveva il potenziale di causare danni se usati in un contesto clinico reale.

Perché c'era una tale differenza nelle prestazioni dei modelli rispetto ai test originali? Bias statistico.

I modelli predittivi non si generalizzano così bene come si crede, dice Kent.

Quando si sposta un modello da un database all'altro, o quando le cose cambiano nel tempo (da un decennio all'altro) o nello spazio (da una città all'altra), il modello non riesce a cogliere queste differenze.

Questo crea una distorsione statistica. Di conseguenza, il modello non rappresenta più la nuova popolazione di pazienti e potrebbe non funzionare altrettanto bene.

Questo non significa che l'intelligenza artificiale non debba essere utilizzata nell'assistenza sanitaria, dice Kent. Ma dimostra perché la supervisione umana è così importante.

Lo studio non dimostra che questi modelli siano particolarmente cattivi, dice Kent. Evidenzia una vulnerabilità generale dei modelli che cercano di prevedere il rischio assoluto. Dimostra che è necessario migliorare la verifica e l'aggiornamento dei modelli.

Ma anche la supervisione umana ha i suoi limiti, come avvertono i ricercatori in un nuovo documento che sostiene la necessità di un processo standardizzato. Senza un quadro di riferimento di questo tipo, possiamo trovare solo le distorsioni che pensiamo di cercare, osservano i ricercatori. Ancora una volta, non sappiamo cosa non sappiamo.

Pregiudizi nella scatola nera

La razza è un insieme di attributi fisici, comportamentali e culturali. È una variabile essenziale per l'assistenza sanitaria. Ma la razza è un concetto complicato e possono sorgere problemi quando si usa la razza negli algoritmi predittivi. Sebbene esistano differenze di salute tra i gruppi razziali, non si può presumere che tutte le persone di un gruppo abbiano gli stessi risultati di salute.

David S. Jones, MD, PhD, professore di cultura e medicina all'Università di Harvard e coautore di Hidden in Plain Sight C Reconsidering the Use of Race Correction in Algorithms, afferma che molti di questi strumenti [algoritmi analogici] sembrano indirizzare le risorse sanitarie verso i bianchi.

Più o meno nello stesso periodo, i ricercatori Ziad Obermeyer, MD, ed Eric Topol, MD, hanno identificato simili pregiudizi negli strumenti di intelligenza artificiale.

La mancanza di diversità negli studi clinici che influenzano la cura dei pazienti è da tempo un problema. Ora, secondo Jones, la preoccupazione è che l'uso di questi studi per costruire modelli predittivi non solo trasmetta questi pregiudizi, ma li renda anche più oscuri e difficili da individuare.

Prima dell'avvento dell'IA, gli algoritmi analogici erano l'unica opzione clinica. Questi tipi di modelli predittivi sono calcolati a mano anziché in modo automatico.

Quando si usa un modello analogico, dice Jones, una persona può facilmente guardare le informazioni e sapere esattamente quali informazioni del paziente, come la razza, sono state incluse o meno.

Ora, con gli strumenti di apprendimento automatico, l'algoritmo può essere proprietario, il che significa che i dati sono nascosti all'utente e non possono essere modificati. È una scatola nera. Questo è un problema perché l'utente, un operatore sanitario, potrebbe non sapere quali informazioni sul paziente sono state incluse o come queste potrebbero influenzare le raccomandazioni dell'intelligenza artificiale.

Se usiamo le razze in medicina, è necessario che siano totalmente trasparenti, in modo da poter capire e giudicare in modo ragionato se l'uso è appropriato, dice Jones. Le domande a cui bisogna rispondere sono: Come e dove usare le etichette razziali in modo che facciano del bene senza fare del male.

Dovete preoccuparvi dell'IA nell'assistenza clinica?

Nonostante l'ondata di ricerche sull'IA, la maggior parte dei modelli clinici non è ancora stata adottata nell'assistenza reale. Ma se siete preoccupati per l'uso della tecnologia o della razza da parte del vostro fornitore, Jones suggerisce di essere proattivi. Potete chiedere al fornitore: Ci sono modi in cui il suo trattamento di me si basa sulla sua comprensione della mia razza o etnia? In questo modo si può aprire un dialogo sulle decisioni prese dal fornitore.

Nel frattempo, gli esperti concordano sul fatto che i problemi legati ai pregiudizi statistici e razziali nell'ambito dell'intelligenza artificiale in medicina esistono e devono essere affrontati prima che gli strumenti vengano utilizzati su larga scala.

Il vero pericolo è che tonnellate di denaro vengano riversate in nuove aziende che creano modelli di previsione e che sono sotto pressione per ottenere un buon [ritorno sugli investimenti], dice Kent. Questo potrebbe creare conflitti per la diffusione di modelli che potrebbero non essere pronti o sufficientemente testati, con il rischio di peggiorare la qualità delle cure invece di migliorarla.

Hot