(foto: Gerd Altmann da Pixabay)

“Rinunciare ai dati per mantenere la fiducia delle persone”. Omar Badawi, Head of Health Data Science & Ai di Philips, oltre che Research Affiliate al Mit e docente alla School of Pharmacy della University of Maryland, mette l’etica di fronte alla necessità di raccogliere dati per nutrire gli algoritmi. Una posizione tanto più significativa se si pensa che Badawi progetta algoritmi che utilizzano informazioni sanitarie.

Wired lo ha incontrato a margine del Critical Care Datathon, un evento dedicato alle applicazioni mediche dell’intelligenza artificiale promosso da Humanitas University in collaborazione con il Politecnico di Milano, per parlare dell’impatto degli algoritmi nei reparti di terapia intensiva. Ma anche per capire quali dati vengono raccolti, come vengono gestiti e cosa succede quando l’intelligenza artificiale sbaglia.

Come si comporta l’intelligenza artificiale in terapia intensiva? Quali sono i dati che raccoglie e cosa cerca di prevedere utilizzandoli?

“Ci sono diversi tipi di applicazioni dell’intelligenza artificiale nei reparti di terapia intensiva, la maggior parte delle quali riguarda la diagnostica per immagini. Il nostro gruppo a Philips, però, sta lavorando su dati clinici e fisiologici: la frequenza cardiaca, la pressione sanguigna, la saturazione dell’ossigeno, il ritmo respiratorio. Monitorando questi parametri minuto per minuto siamo in grado di predire se il paziente avrà bisogno di un intervento per supportare l’apparato respiratorio o cardiovascolare”.

Quali sono le problematiche da affrontare per lo sviluppo di questi modelli predittivi?

“Intanto, c’è bisogno di molti dati per creare dei modelli efficaci. Non è solo questione di una grande quantità di pazienti, è anche importante che arrivino da molti ospedali e che riguardino anche un periodo di tempo lungo. Una volta raccolti, poi c’è il problema di riuscire a renderli interoperabili. Noi abbiamo sviluppato un sistema che ci permette di standardizzare i dati che raccogliamo da oltre 750 ospedali, sia americani che internazionali”.

I dati degli ospedali: come garantite che non si ripetano scandali come Nightingale?

[sorride, ndr] Abbiamo uno stretto controllo sui dati che utilizziamo per supportare il sistema e garantiamo il più alto livello di sicurezza. Siamo partiti nel 2008 con un team di ricercatori che si occupa di queste tematiche che ha stabilito che i dati vengano anonimizzati sia per quanto riguarda i pazienti che gli ospedali di provenienza. Ogni anno un gruppo di esperti mondiali certifica che i nostri dati comportino un basso rischio di identificare un paziente”.

Però ci sono fattori di rischio legati alla provenienza geografica, sociale, etnica, elementi che assumono un peso specie dove non esiste un sistema sanitario nazionale come negli Usa. Come vi regolate sotto questo punto di vista?

“Gli aspetti etici sono molto importanti, quando si disegnano i modelli predittivi occorre pensare alle conseguenze non previste dei nostri bias, considerare le implicazioni di come può essere utilizzato un algoritmo”.

E quindi?

“Alle volte è meglio rinunciare a dei dati. C’è un ospedale giapponese che ci fornisce dei dati ma, per come è organizzato il nostro schema, identifica subito che tutti o quasi i pazienti sono di etnia asiatica. E siccome è l’unico ospedale del Giappone con cui collaboriamo, diventa molto semplice andare ad identificare i dati. Per questo abbiamo deciso di non includerli: è meglio rinunciare a delle informazioni pur di mantenere la fiducia delle persone”.

Quali sono i risultati dell’impiego dell’intelligenza artificiale nei reparti di terapia intensiva?

“Il nostro sistema di supporto all’attività dei clinici ottiene dei risultati notevoli: vediamo una riduzione del 30% sia del tasso di mortalità che della durata del ricovero”.

Quale invece l’impatto sull’attività quotidiana dei medici?

“Sicuramente c’è un miglioramento del loro flusso di lavoro e della loro efficienza. La necessità di compilare documenti ha rallentato i medici e toglie loro tempo per prendersi cura dei pazienti: l’impiego degli electronic medical records permette loro di avere più tempo per questo”.

Per quanto cinico possa suonare, c’è anche un tema economico.

“Certamente anche questo è un aspetto importante. In generale, ottimizzare le cure significa ridurre il numero di pazienti con complicazioni e anche dei tempi di ricovero più brevi. Quando si parla di costi, però, occorre fare molta attenzione: dal punto di vista finanziario possono esistere degli outliers”.

Ovvero realtà che stanno al di fuori della tendenza generale. Cosa succede in questi casi?

“Parlo di ospedali che magari non sono specializzati nel trattare determinate patologie e nei quali un paziente che ne soffre ha un rischio maggiore di morire. E di realtà specializzate nelle quali i medici possono salvarlo, ma con un decorso molto lungo. In quest’ultimo caso, il costo economico sarà certamente più alto, ma qual è il valore di una vita salvata?”.

Nel suo intervento al Critical Care Datathon ha parlato anche dei fallimenti nello sviluppo degli algoritmi. Cosa succede se l’intelligenza artificiale sbaglia e un medico deve dire ai familiari di un paziente che il decesso è dovuto a un errore del processo di machine learning?

“Ovviamente l’elemento chiave per portare un’intelligenza artificiale nella pratica clinica è che si tratti di un sistema progettato per bene. Perché un algoritmo sia davvero efficace, c’è bisogno che l’utente sia in grado di gestire i casi in cui la macchina e il medico non sono d’accordo. È importante partire dal presupposto che possono sbagliare entrambi”.

Il mondo sta affrontando l’emergenza sanitaria legata al coronavirus. Ritiene che l’intelligenza artificiale possa aiutare nella gestione delle pandemie?

“Assolutamente sì, penso anche che ci siano dei modelli che sono stati impiegati per identificare i pattern di diffusione dell’epidemia. In casi come questo la comprensione degli schemi con i quali si diffonde il virus è fondamentale, l’intelligenza artificiale può integrare i dati da diverse fonti e supportare le attività di prevenzione e di controllo. Il punto fondamentale, ovviamente, è che i dati vengano condivisi”.

The post Perché l’intelligenza artificiale deve imparare a rinunciare ai dati appeared first on Wired.



Leggi l’articolo su wired.it