PERCHÉ L’IA CHE INDIVIDUA IL CANCRO DEVE ESSERE GESTITA CON CURA
L’accelerazione delle diagnosi di cancro potrebbe ferire più di quanto aiuti

In questi giorni, potrebbe sembrare che gli algoritmi stiano superando la diagnosi dei medici ad ogni turno, identificando lesioni pericolose e talpe sfuggenti con la coerenza infallibile che solo una macchina può raccogliere. Proprio questo mese, Google ha generato un’ondata di titoli con uno studio che mostra che i suoi sistemi di intelligenza artificiale possono individuare il cancro al seno nelle mammografie in modo più accurato rispetto ai medici.

Ma per molti nell’assistenza sanitaria, ciò che dimostrano studi come questi non è solo la promessa dell’IA, ma anche la sua potenziale minaccia. Dicono che per tutte le ovvie capacità degli algoritmi di elaborare i dati, le abilità sottili e basate sul giudizio di infermieri e dottori non sono così facilmente digitalizzate. E in alcune aree in cui le aziende tecnologiche stanno spingendo l’IA medica, questa tecnologia potrebbe aggravare i problemi esistenti.

IL DANNO DI TROVARE PIÙ CANCRO
Per il documento mammografico di Google, la critica principale è che la società sta tentando di automatizzare un processo che è già alquanto controverso. Come Christie Aschwanden ha sottolineato a Wired all’inizio di questo mese, i medici hanno sostenuto per anni che le prime scansioni per il cancro al seno potrebbero danneggiare tanto quanto aiutano e l’introduzione dell’intelligenza artificiale potrebbe rovesciare l’equilibrio.

“C’È QUESTA IDEA NELLA SOCIETÀ SECONDO CUI TROVARE PIÙ TUMORI È SEMPRE MEGLIO, MA NON È SEMPRE VERO.”
“C’è questa idea nella società secondo cui trovare sempre più tumori è sempre meglio, ma non è sempre vero”, ha detto a The Verge Adewole Adamson, dermatologa e assistente professore alla Dell Medical School . “L’obiettivo è trovare più tumori che stanno effettivamente per uccidere le persone”. Ma il problema è “non esiste un gold standard per ciò che costituisce il cancro”.

Come hanno scoperto gli studi , puoi mostrare le stesse lesioni allo stadio iniziale a un gruppo di medici e ottenere risposte completamente diverse sul fatto che si tratti di cancro. E anche se sono d’accordo sul fatto che sia ciò che mostra una lesione – e le loro diagnosi sono giuste – non c’è modo di sapere se quel cancro è una minaccia per la vita di qualcuno. Questo porta alla diagnosi eccessiva, dice Adamson: “Chiamare cose cancerose che, se non andassi a cercarle, non danneggerebbe le persone nel corso della loro vita”.

Non appena si chiama qualcosa di cancro, si innesca una catena di interventi medici che può essere dolorosa, costosa e che cambia la vita. Nel caso del carcinoma mammario, ciò potrebbe significare trattamenti radioterapici, chemioterapia, rimozione di tessuto dal seno (una lumpectomia) o rimozione totale di uno o entrambi i seni (una mastectomia). Queste non sono decisioni da affrettarsi.

L’algoritmo di Google può individuare le lesioni nelle mammografie in modo più affidabile rispetto ad alcuni medici, ma come dovrebbe essere applicato? Immagine: Google
Ma le complessità di tale diagnosi non ricevono la dovuta attenzione nello studio di Google , afferma Adamson. In primo luogo, i ricercatori dell’azienda hanno addestrato il loro algoritmo su immagini che erano già state identificate come cancerose o meno. Ma poiché non esiste un gold standard per la diagnosi del cancro , in particolare il cancro precoce, è discutibile se tali dati di allenamento forniscano una buona base. In secondo luogo, l’algoritmo di Google produce solo risultati binari: sì, è un cancro o no, non lo è. Come sostiene Adamson in un recente documento , ci deve essere spazio per l’incertezza, una terza opzione che rappresenta l’area grigia della diagnosi e che prolunga il dibattito piuttosto che chiuderlo.

GOOGLE AFFERMA CHE L’ARTICOLO È “RICERCA NELLA FASE INIZIALE”
Alla domanda su questi problemi, il team di Google ha detto a The Verge che le riduzioni dei loro algoritmi nei tassi di falsi positivi (incidenti quando qualcosa viene erroneamente identificato come cancro) ridurrebbe la minaccia di diagnosi eccessiva. Hanno anche sottolineato che il documento era una “ricerca nella fase iniziale” e che avrebbero indagato in futuro il tipo di analisi non binaria che Adamson sostiene.

“Questo è esattamente il tipo di ricerca che intraprenderemo con i nostri partner come prossimo passo”, ha dichiarato un portavoce di Google Health. “Speriamo di esplorare considerazioni sul flusso di lavoro, considerazioni sull’interfaccia utente, tra molte altre aree.”

Per Adamson, tuttavia, queste sfide sono più grandi di un singolo documento. La sovradiagnosi, dice, “è un problema per molti tumori diversi; per prostata, melanoma, carcinoma mammario, tiroide. E se i sistemi di intelligenza artificiale diventano sempre più bravi a trovare lesioni sempre più piccole, produrrai molti pseudo-pazienti che hanno una “malattia” che non li ucciderà davvero. “

IL RADIOLOGO NON COSÌ OBSOLETO
La diagnosi eccessiva è una sfida quando si integra l’IA nella medicina, ma per alcuni medici le radici del problema sono più profonde. Non si trovano in documenti o algoritmi specifici, ma nella fiducia del mondo dell’IA che può soppiantare un’intera categoria di lavoro medico: la radiologia.

Nel 2016, il pioniere dell’intelligenza artificiale Geoffrey Hinton (uno dei tre “padrini dell’IA” che ha vinto il Turing Award 2018 ) ha dichiarato : “Le persone dovrebbero smettere di addestrare i radiologi ora. È del tutto ovvio che entro cinque anni il deep learning farà meglio dei radiologi. ”Nel 2017, il co-fondatore di Google Brain, Andrew Ng, ha ripetuto il punto commentando un algoritmo che rileva la polmonite dai raggi X:“ I radiologi dovrebbero essere preoccupato per il loro lavoro? “

La retorica si è calmata negli ultimi anni, ma per i radiologi reali, questi soundbites hanno sempre suonato male e un po ‘offensivi. (Come ha osservato Hinton nel 2016 quando ha ricordato di aver profetizzato il destino dei radiologi in un ospedale: “Non è andato troppo bene”.) Sebbene gli algoritmi siano certamente in grado di individuare caratteristiche specifiche nell’immaginario medico e in quello dei medici, questo è molto lontano piangere per poter indossare un abito e iniziare a camminare nei reparti.

Il nocciolo della questione è che i radiologi non si limitano a guardare le immagini, afferma Hugh Harvey, un radiologo e consulente di tecnologia sanitaria. “È un completo fraintendimento di ciò che fanno i radiologi”. Il lavoro, dice, “è più come leggere un romanzo e cercare di scrivere un riassunto di cosa si tratta.”

FRANCIA-HEALTH-CANCRO-MRI-ROBOT
Alcuni esperti hanno affermato che l’IA sostituirà i radiologi, ma i radiologi affermano di non capire di cosa si occupi. Foto di Stephane De Sakutin / AFP via Getty Images
“L’INTELLIGENZA ARTIFICIALE NON PUÒ DAVVERO SOSTITUIRE CIÒ CHE I RADIOLOGI FANNO IN ALCUN SENSO SIGNIFICATIVO.”
Come notato da Harvey in un post sul blog nel 2018 , comporta la pianificazione e la preparazione dei pazienti, la raccolta dei dati in vari modi (da fluoroscopie, ultrasuoni, biopsie, ecc.), Correlando questi con altre parti della diagnosi e impegnandosi in ogni sorta di compiti accessori, come l’insegnamento, la formazione e l’auditing del lavoro altrui. “L’intelligenza artificiale non può davvero sostituire ciò che i radiologi fanno in alcun senso significativo”, afferma Harvey. “Può trovare cose difficili da trovare e mostrarle ai radiologi per farsi un’opinione”, ma non molto di più.

Le origini dell’eccessiva fiducia nel mondo dell’intelligenza artificiale qui non risiedono in una particolare vendetta contro i radiologi, ma nelle affinità strutturali dell’intelligenza artificiale stessa. La visione artificiale ha dimostrato di essere di gran lunga la più grande forza dell’apprendimento profondo, il sapore dominante dell’IA. È stato un test di riconoscimento delle immagini che ha dato il via all’attuale boom dell’IA nel 2012, e sono gli algoritmi di visione di apprendimento profondo che sono alla base delle sue applicazioni più potenti, dalle auto a guida autonoma al riconoscimento facciale.

Per questo motivo, i ricercatori dell’IA hanno ottenuto un sacco di chilometraggio dall’applicazione di algoritmi di visione relativamente standard ai set di dati medici. Ciò genera molti “primi”, poiché l’intelligenza artificiale impara a individuare la caratteristica X nei dati Y e crea l’impressione di un’ondata in rapido progresso tecnologico. I medici affermano che la più simile a una di queste applicazioni – quelle che contrassegnano semplicemente le caratteristiche dei dati per la verifica da parte dei medici – sono le più utili. Ma quelli più complessi che cercano di fare le proprie diagnosi non affrontano necessariamente le sfide mediche di base. Ciò è particolarmente vero quando molti degli algoritmi che creano titoli devono ancora essere integrati in un ambiente clinico.

Come afferma Harvey: “L’apprendimento profondo viene utilizzato come un martello e le aziende tecnologiche stanno cercando unghie, ma alcune delle unghie – non sono del tutto esatte.”

RIFACIMENTO DELLA NARRATIVA DELL’IA E DELL’ASSISTENZA SANITARIA
Se esiste un tema coerente nelle frontiere dell’IA e della medicina, è che i problemi non sono così semplici come sembrano inizialmente.

La giornalista sanitaria Mary Chris Jaklevic ha sottolineato in un recente articolo che gran parte della disinformazione qui deriva dalla narrativa “macchina contro medico” trovata in così tanti studi di intelligenza artificiale e nei successivi rapporti. Tale narrativa è allo stesso tempo scattante e appiccicosa, attira l’interesse dei lettori per il momento e modella la loro comprensione del dibattito futuro. Ma è anche monodimensionale e riduce la complessità della diagnosi medica a pochi numeri. In questo modo non si tiene conto delle parti del lavoro sanitario che sono meno facili da quantificare.

LA CAPACITÀ DELL’IA DI RIDIMENSIONARSI È ALLA BASE DEL SUO POTENZIALE E DEL SUO PERICOLO
Ciononostante, la maggior parte degli esperti coinvolti in questo lavoro – siano essi programmatori o medici – sono ancora cautamente ottimisti circa il potenziale dell’IA nell’assistenza sanitaria. Come osserva Adamson, è la capacità di ridimensionamento dell’intelligenza artificiale che la rende così potente e le dà così tante promesse e richiede cautela.

Una volta che un algoritmo è stato esaminato in modo esauriente, osserva, e vengono elaborate le complessità di come si inserirà nel processo diagnostico, può essere implementato rapidamente e facilmente quasi ovunque nel mondo. Ma se questi test vengono accelerati, i cattivi effetti collaterali come la diagnosi eccessiva si moltiplicheranno altrettanto velocemente.

“Non credo che l’IA debba essere gettata nella pattumiera, al contrario”, afferma Adamson. “Ha il potenziale per fare cose buone, se progettato in modo appropriato. La mia preoccupazione non riguarda l’IA come tecnologia, ma come la applicheremo. “

Di ihal