Promise and problems: AI put patients at risk but that shouldn’t prevent us developing it. How do we implement artificial intelligence in clinical settings?

ioin condizioni classiche Per trovare un equilibrio tra costi e benefici della scienza, i ricercatori affrontano la questione di come l'IA in medicina possa e debba essere applicata alla cura clinica dei pazienti, nonostante sappiano che ci sono esempi che mettono a rischio la vita dei pazienti.

La questione è stata al centro di un recente simposio all'Università di Adelaide, che fa parte della serie di conferenze di ricerca di martedì "Antidote AI".

Man mano che l'intelligenza artificiale è cresciuta in termini di sofisticatezza e utilità, stiamo iniziando a vederla apparire sempre di più nella vita di tutti i giorni. Dal controllo del traffico AI e dagli studi ambientali, all'apprendimento automatico per trovare le origini dei meteoriti marziani e la lettura dell'arte rupestre nell'Arnhem Land, le possibilità per la ricerca sull'IA sembrano infinite.

Alcuni degli usi più promettenti e controversi dell'IA potrebbero trovarsi in campo medico.

I medici e i ricercatori dell'IA sono davvero entusiasti del fatto che l'IA possa aiutare a prendersi cura dei pazienti in modo chiaro e rispettoso. Dopotutto, la medicina riguarda l'aiutare le persone e la base morale è "non nuocere". L'intelligenza artificiale fa sicuramente parte dell'equazione per migliorare la nostra capacità di curare i pazienti in futuro.

L'intelligenza artificiale fa sicuramente parte dell'equazione per migliorare la nostra capacità di curare i pazienti in futuro.

Khalia Bremmer, una studentessa di dottorato presso la Adelaide Medical School, indica diverse aree della medicina in cui l'IA sta già facendo scalpore. I sistemi di intelligenza artificiale rilevano i rischi critici per la salute, rilevano il cancro ai polmoni, diagnosticano il diabete, classificano i disturbi della pelle e identificano i migliori farmaci per combattere le malattie neurodegenerative.

"Potremmo non doverci preoccupare dell'avvento delle macchine per la radiologia, ma quali sono i problemi di sicurezza da considerare quando l'apprendimento automatico incontra la scienza medica? Di quali potenziali rischi e danni dovrebbero essere consapevoli gli operatori sanitari e quali soluzioni possiamo trovare per assicurarsi che l'evoluzione continui? Questo campo entusiasmante?", chiede il primer.

Queste sfide sono esacerbate dal fatto che "l'ambiente normativo sta lottando per tenere il passo" e "la formazione sull'IA per gli operatori sanitari è praticamente inesistente", afferma Bremer.

"La formazione sull'intelligenza artificiale per gli operatori sanitari è praticamente inesistente".

vuoto di primer

Come medico per formazione E il La ricercatrice sull'intelligenza artificiale, la dott.ssa Lauren Oakden Rayner, ricercatrice senior presso l'Australian Institute of Machine Learning (AIML) dell'Università di Adelaide e direttrice della ricerca sull'imaging medico presso il Royal Adelaide Hospital, valuta i pro ei contro dell'IA in medicina.

"Come si parla di intelligenza artificiale?" Lei chiede. Un modo è evidenziare il fatto che i sistemi di intelligenza artificiale funzionano altrettanto bene o addirittura meglio degli umani. Il secondo modo è dire che l'IA non è intelligente.

"Potresti chiamarla la posizione 'hype' dell'IA e la posizione 'contraddittoria' dell'IA", dice Oakden Rayner. "Le persone hanno fatto la loro intera carriera assumendo una di queste posizioni ora".

Rayner Oakden spiega che queste due posizioni sono vere. Ma come possono essere entrambi veri?

"Potresti chiamarli la posizione 'hype' dell'IA e la posizione 'contraddittoria' dell'IA. Le persone hanno fatto interi lavori occupando una di queste posizioni ora".

Dott.ssa Lauren Oakden Rayner

Il problema, secondo Oakden Rayner, è il modo in cui confrontiamo l'IA con gli esseri umani. Ci è stata fornita una linea di base abbastanza comprensibile essere umano, ma il ricercatore insiste sul fatto che questo serve solo a confondere la portata dell'IA antropomorfizzando l'IA.

Oakden Rainer indica uno studio del 2015 in psicologia comparata, lo studio delle intelligenze non umane. Questa ricerca ha dimostrato che per una gustosa sorpresa, i piccioni possono essere addestrati a rilevare il cancro al seno sulle mammografie. In effetti, i piccioni hanno impiegato solo due o tre giorni per raggiungere le prestazioni degli esperti.

Naturalmente, nessuno affermerà per un momento che i piccioni sono intelligenti come un radiologo esperto. Gli uccelli non hanno idea di cosa sia un granchio o cosa cercare. La "Legge di Morgan" - il principio che il comportamento di un animale non umano non dovrebbe essere spiegato in termini psicologici complessi se può invece essere spiegato in concetti più semplici - dice che non dobbiamo presumere che un'intelligenza non umana faccia qualcosa di intelligente se c'è una spiegazione più semplice. Questo vale sicuramente per l'intelligenza artificiale.

"Queste tecnologie spesso non funzionano come ci aspettiamo".

Dott.ssa Lauren Oakden Rayner

Oakden-Rainer racconta anche di un'intelligenza artificiale che ha osservato l'immagine di un gatto e l'ha identificato correttamente come gatti, prima che fosse completamente sicuro che fosse un'immagine di gatti. Altamente sensibile è l'intelligenza artificiale per riconoscere i modelli. Il divertente mix gatto/guacamole in un ambiente medico diventa meno divertente.

Questo porta Oakden Rayner a chiedersi: "Questo mette a rischio i pazienti? Questo solleva problemi di sicurezza?"

La risposta è si.

Uno dei primi strumenti di intelligenza artificiale utilizzati in medicina è stato utilizzato per esaminare le mammografie proprio come un piccione. All'inizio degli anni '90, lo strumento ha ricevuto il via libera per l'uso nella rilevazione del cancro al seno in centinaia di migliaia di donne. La decisione si è basata su esperimenti di laboratorio che hanno mostrato che i radiologi hanno migliorato i tassi di rilevamento utilizzando l'intelligenza artificiale. Ottimo, vero?

Venticinque anni dopo, uno studio del 2015 ha esaminato l'applicazione nel mondo reale del programma e i risultati non sono stati buoni. In effetti, le donne se la sono cavata peggio dove lo strumento era in uso. La rapida idea di Ockden-Rainer è che "queste tecnologie spesso non funzionano come ci aspettiamo".

L'IA tende a funzionare peggio per i pazienti più a rischio, in altre parole, i pazienti che necessitano di maggiori cure.

Inoltre, Oakden Rayner osserva che ci sono 350 sistemi di intelligenza artificiale sul mercato, ma solo cinque di loro sono stati sottoposti a studi clinici. E l'IA tende a funzionare peggio per i pazienti più a rischio, in altre parole, i pazienti che hanno bisogno di più cure.

L'IA ha anche dimostrato di essere un problema quando si tratta di dati demografici diversi. È stato riscontrato che i sistemi di riconoscimento facciale disponibili in commercio hanno prestazioni scarse sui neri. "Le aziende che hanno davvero preso in considerazione questo aspetto, sono tornate indietro e hanno revisionato i loro sistemi addestrandosi su set di dati più diversi", osserva Oakden Rayner. Questi sistemi ora sono molto più uguali nella loro produzione. Nessuno ha nemmeno pensato di provare a farlo quando originariamente stavano costruendo i sistemi e portandoli sul mercato".

Ancora più preoccupante è l'algoritmo utilizzato negli Stati Uniti dai giudici per determinare la condanna, la libertà vigilata e la libertà condizionale e per prevedere il potenziale di recidiva degli individui. Il sistema è ancora in uso nonostante i media del 2016 abbiano riferito che era probabile che fosse sbagliato prevedere che una persona di colore avrebbe ricambiato.

Allora, dove finiscono le cose per Rayner Oakden?

"Sono una ricercatrice di intelligenza artificiale", dice. "Non sono solo una persona che fa buchi nell'IA. Mi piace molto l'IA. So che la stragrande maggioranza dei miei discorsi riguarda danni e rischi. Ma il motivo per cui sono così è perché sono un medico, e quindi dobbiamo capire cosa può andare storto, così possiamo fermarlo".

“Mi piace molto l'IA […] Dobbiamo capire cosa può andare storto, così possiamo prevenirlo".

Dott.ssa Lauren Oakden Rayner

La chiave per rendere l'IA più sicura, secondo Rayner Oakden, è stabilire standard di pratica e linee guida per la pubblicazione di studi clinici che coinvolgono l'IA. Crede che tutto questo sia altamente realizzabile.

Il professor Lyle Palmer, docente di epidemiologia genetica presso l'Università di Adelaide e ricercatore senior presso l'AIML, sottolinea il ruolo che l'Australia meridionale svolge come centro per la ricerca e lo sviluppo dell'intelligenza artificiale.

Se c'è una cosa di cui hai bisogno per una buona IA, dice, sono i dati. Dati vari. E molto. Palmer afferma che l'Australia meridionale è un luogo privilegiato per ampi studi sulla popolazione a causa della grande quantità di storia medica nello stato. Ma fa anche eco al sentimento di Rayner Oakden secondo cui questi test dovrebbero includere campioni diversi per catturare le differenze nei diversi dati demografici.

"Tutto questo è possibile. Abbiamo la tecnologia per farlo da secoli".

Professor Lyle Palmer

dice Palmer eccitato. "Tutto questo è possibile. Abbiamo la tecnologia per farlo da secoli".

Palmer afferma che questa tecnologia è particolarmente avanzata in Australia, in particolare nell'Australia meridionale.

Tali dati storici possono aiutare i ricercatori a determinare, ad esempio, l'età della malattia per comprendere meglio le cause dello sviluppo della malattia in diversi individui.

Per Palmer, l'IA sarà fondamentale in medicina dati i "tempi difficili" dell'assistenza sanitaria, compresa la pipeline di somministrazione dei farmaci, che vede molti trattamenti non raggiungere le persone che ne hanno bisogno.

L'intelligenza artificiale può fare cose incredibili. Ma, come avverte Oakden Rainer, è un errore paragonarlo agli umani. Gli strumenti sono buoni quanto i dati con cui li alimentiamo e, anche in questo caso, possono commettere molti strani errori a causa della loro sensibilità agli schemi.

L'IA cambierà la medicina (sembra essere più lenta di quanto alcuni hanno suggerito in passato) di sicuro. Ma, proprio come la nuova tecnologia stessa mira a prendersi cura dei pazienti, i creatori umani di questa tecnologia sono tenuti a garantire che la tecnologia stessa sia sicura e faccia più male che bene.

#Promise #problems #put #patients #risk #shouldnt #prevent #developing #implement #artificial #intelligence #clinical #settings

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.