INTELLIGENZA ARTIFICIALE & MEDICINA / LA “DIAGNOSI” DI GIULIO TARRO

Giulio Tarro

Intelligenza artificiale. Insieme a tenebrose e imminenti pandemie e crisi climatiche, sta diventando un altro spauracchio, in questo caso per convincere le persone che c’è già un sostituto elettronico delle loro attività e che dunque esse, non valendo più nulla, non hanno altra strada che sottomettersi totalmente al potere. E addirittura c’è già chi, come Klaus Schwab, al ‘World Economic Forum’ 2024, che, assegnando all’intelligenza artificiale, oltre a quello analitico e predittivo, un ruolo “prescrittivo”, propone di abolire le elezioni e affidare all’intelligenza artificiale il ruolo finora rivestito dalla politica.

Ma davvero l’Intelligenza artificiale sta soppiantando le capacità degli esseri umani al punto di sostituirli nelle decisioni da prendere? Questa illusione risale, almeno, al febbraio 1996, quando il computer IBM Deep Blue riuscì a vincere una partita contro il campione del mondo di scacchi Garri Kasparov. In realtà IBM Deep Blue, allora il computer più potente del mondo, si era limitato ad analizzare innumerevoli partite di scacchi memorizzate confrontandole con quella che stava giocando Kasparov. Da allora l’informatica ha sviluppato algoritmi sempre più sofisticati capaci di autocorreggersi e prevedere il probabile evolversi della situazione ma la logica di quella che oggi chiamiamo Intelligenza Artificiale è rimasta la stessa di quarant’anni fa: una enorme quantità di dati viene analizzata da computer sempre più potenti per estrapolare statistiche e schemi sui quali basare le risposte.

Noam Chomsky

Funziona così l’intelligenza umana? Assolutamente no. Secondo il filosofo Noam Chomsky, ad esempio, la mente umana, a differenza della intelligenza artificiale, per operare non deve ingozzarsi di una enorme quantità di informazioni, non si ingozza di terabyte e non può essere ridotta ad un sempre più gigantesco motore statistico, funzionando, invece, come un “sistema sorprendentemente efficiente e persino elegante” che si accontenta di piccole quantità di informazioni (tratte, spesso, dai campi più svariati) nelle quali cerca di individuare un senso; per fare nostre le parole di Noam Chomsky “non cerca di dedurre correlazioni brutali tra i dati, ma di creare spiegazioni”. Si veda, ad esempio, la scoperta degli antibiotici fatta da Alexander Fleming, dopo aver casualmente osservato come una muffa, appartenente al genere Penicillium notatum, sviluppatasi su una coltura di batteri, avesse determinato la morte di questi.

Nonostante ciò, oggi, la continua sostituzione di lavoratori con sistemi di Intelligenza Artificiale viene spacciata come la “dimostrazione” della superiorità di questi sistemi. Uno dei casi più emblematici è stato il recente licenziamento di giornalisti (anche in Italia) rimpiazzati da sistemi di intelligenza artificiale. “Giornalisti” per modo di dire in quanto a cercarsi le notizie oramai non c’è quasi più nessuno essendo, nelle redazioni, tutti impegnati a diffondere – adattandole al target culturale di specifici segmenti dei lettori o telespettatori – le chiacchiere e le fake news create e diffuse a livello planetario da un pugno di agenzie di stampa (in Occidente, appena sei di queste forniscono ai media il 70% delle notizie da pubblicare). Con i giornalisti ridotti a scrivere “notizie” (prevalentemente false o futili) “accattivanti” per far sì che l’incauto lettore che clicca sopra il titolo venga sommerso da valanghe di pubblicità, non meraviglia affatto che questi “giornalisti” siano stati soppiantati da sistemi di Intelligenza artificiale.

Va da sé che questa ingloriosa fine si prefigura anche per non pochi, cosiddetti, “medici”. Mi sembra opportuna questa precisazione linguistica in quanto si direbbe che negli ultimi tempi i medici abbiano perso quella capacità di comprendere l’interezza del paziente che hanno davanti concentrandosi oggi sulla mera lettura di analisi cliniche e indagini diagnostiche e applicando, pedissequamente, nelle prescrizioni, le cosiddette “linee guida e buone pratiche” previste dalla legge 24/2017 (legge Gelli-Bianco). Nascono da qui vere e proprie aberrazioni come “la visita medica on line” che già spopola negli USA e per la quale, in Italia, ha fatto da battistrada la sciagurata circolare del Ministero della salute che, durante l’emergenza Covid, sostanzialmente, invitava i medici ad effettuare solo “visite telefoniche”, con i risultati che tutti sappiamo.

Ciò premesso, occupiamoci dello Stato dell’Arte dell’Intelligenza Artificiale nel campo medico.

I.A. IN CAMPO MEDICO

L’Intelligenza Artificiale sta già pesantemente condizionando la Medicina considerando che negli Stati Uniti sono oltre 500 le applicazioni di intelligenza artificiale approvate dalla ‘Food and Drug Administration’ (FDA). Secondo il report “Artificial Intelligence in Healthcare Market – Growth, Trends, COVID-19 Impact and Forecasts”, il mercato dell’Intelligenza Artificiale nella sanità avrà entro il 2028 un tasso di crescita annuo del 42,2%. Intanto gli editori del ‘New England Journal of Medicine’ (una delle più prestigiose riviste mediche) hanno annunciato in un editoriale il lancio nel 2024 della rivista ‘NEJM AI’, che diventerà uno spazio di condivisione di discussioni sul potenziale e i limiti dell’Intelligenza Artificiale in medicina.

Attualmente il campo nel quale si sono fatti più progressi in termini di utilizzo dell’intelligenza artificiale come supporto per i medici è quello diagnostico soprattutto nel campo della radiologia e dell’imaging in generale.

In questo settore esistono diverse evidenze scientifiche della loro affidabilità, in particolare nell’area oncologica, respiratoria o cardiologica. Dopo aver istruito una macchina nell’interpretare immagini fornite tramite radiografie, ecografie, TAC, elettrocardiogrammi e da esami provenienti dall’analisi di campioni di tessuti biologici (istologici), è possibile identificare, con un buon grado di affidabilità, patologie tumorali, cardiovascolari, dermatologiche, respiratorie.

A tal fine sono stati sviluppati e testati algoritmi per l’elaborazione di immagini mediche (come radiografie, tomografie e scansioni di risonanza magnetica) in modo da ottenere diagnosi più rapide e accurate, che a loro volta possano migliorare la prognosi dei pazienti, oltre a poter rilevare le malattie in fase precoce.

In particolare, un campo in piena espansione è quello dell’oncologia: per esempio, nella rilevazione del cancro ai polmoni, uno studio ha dimostrato che gli algoritmi di intelligenza artificiale sono riusciti fare diagnosi con accuratezza e con maggiore sensibilità rispetto a un essere umano, prevedendo con precisione la prognosi dei pazienti e quindi favorendo la scelta del corretto trattamento. Per quanto riguarda la diagnosi del tumore alla mammella, secondo uno studio del 2020 pubblicato sulla rivista ‘Nature’, un sistema di intelligenza artificiale ha portato a una riduzione del 5,7% e del 1,2% (rispettivamente negli Stati Uniti e nel Regno Unito) dei falsi positivi e del 9,4% e del 2,7% dei falsi negativi, rispetto alla valutazione dei radiologi, aumentando la sensibilità del 11,5% rispetto all’operato dei medici.

E ancora, in dermatologia la diagnosi e la classificazione di lesioni cutanee si basa principalmente su immagini visive, quindi l’intelligenza artificiale ha mostrato risultati promettenti; in cardiologia, l’intelligenza artificiale può fornire una diagnosi e valutazione della funzione cardiaca più veloce e accurata tramite l’interpretazione automatica di esami come ECG ed ecocardiografie. Nella gastroenterologia, l’intelligenza artificiale può aiutare i medici nella rilevazione di patologie attraverso l’elaborazione di immagini endoscopiche dello stomaco, del duodeno e del colon.

Oltre alla diagnostica, l’intelligenza artificiale sembra uno strumento promettente anche per migliorare i trattamenti medici, analizzando grandi quantità di dati di pazienti e malattie per identificare i fattori di rischio, le terapie più efficaci e predire il successo di un trattamento specifico.

Questo può aiutare i medici a personalizzare i trattamenti per ogni paziente, migliorando le probabilità di successo della terapia.

Anche la gestione dei dati sanitari sta diventando più efficiente grazie all’intelligenza artificiale: queste tecnologie, per esempio possono analizzare i dati dei pazienti e trovare modelli che aiutino a prevenire malattie o a individuare i pazienti ad alto rischio di una particolare patologia in maniera efficace.

Attualmente uno dei più importanti programmi medici incardinati nell’Intelligenza Artificiale è il progetto dell’Unione europea I3LUNG che ha come obiettivo l’implementazione delle cure mediche personalizzate con l’intelligenza artificiale, per i pazienti con tumore al polmone. Il progetto coinvolge sei centri clinici di eccellenza per la cura del tumore del polmone (Italia, Germania, Spagna, Grecia, Israele, USA) e vede la partecipazione di 16 tra le migliori organizzazioni europee e internazionali in ambito oncologico. I3LUNG mira a creare uno strumento decisionale all’avanguardia che aiuterà sia i medici che i loro pazienti a selezionare la migliore cura, sia per efficacia che per risposta ai loro specifici bisogni e necessità.

Il progetto utilizzerà l’intelligenza artificiale, in particolare le metodologie dette di apprendimento profondo e approfondimento automatico (‘Deep Learning’ e ‘Machine Learning’) per analizzare a pieno tutta la grande quantità di informazioni disponibili per questo tumore. Verranno raccolte le caratteristiche cliniche, genetiche e molecolari, le immagini radiologiche e le caratteristiche del tumore già disponibili per 2.000 pazienti arruolati in studi clinici nei centri partecipanti al progetto. È inoltre previsto uno studio psicologico per sviluppare uno strumento di supporto alla decisione medica.

Nell’applicazione dell’Intelligenza Artificiale nel campo medico vi sono, comunque, alcune criticità sulle quali è opportuno soffermarsi.

ECCOCI ALLE CRITICITA’

Uno di questi è la mancanza di standard per valutare la sicurezza e l’efficacia dei sistemi di intelligenza artificiale: in particolare, molte revisioni sistematiche e meta-analisi hanno evidenziato i limiti metodologici degli studi sull’efficacia e la sicurezza dei sistemi di intelligenza artificiale condotti finora.

Molti di questi studi, infatti, sono retrospettivi e basati su set di dati precedentemente assemblati, mentre pochi sono prospettici, condotti in contesti clinici reali e pochissimi sono quelli basati su studi clinici controllati randomizzati. Prima di essere utilizzati in ambito sanitario, i sistemi di intelligenza artificiale dovrebbero passare attraverso una rigorosa validazione scientifica, basata su studi metodologicamente solidi che dimostrino non inferiorità o superiorità e maggior efficienza economica rispetto al percorso diagnostico e decisionale convenzionale. Per superare queste difficoltà, la ‘Food and Drug Administration’ statunitense ha fatto il primo tentativo di fornire alcune linee guida per la valutazione dei sistemi di intelligenza artificiale, che al momento sono regolamentati in modo approssimativo, fintanto che i dispositivi intendono solo per il benessere generale e presentano un basso rischio per gli utenti. Inoltre, questi documenti chiariscono le regole per la progettazione delle sperimentazioni cliniche quando si vuole testare l’efficacia e la sicurezza dei sistemi di intelligenza artificiale.

Un’altra criticità è quella rappresentata dallo scambio e dalla condivisione di dati: per funzionare bene, i sistemi di intelligenza artificiale devono essere addestrati continuamente dai dati degli studi clinici. Tuttavia, una volta che un sistema di intelligenza artificiale viene implementato dopo l’addestramento con i dati storici, è necessario continuare a fornire dati sempre aggiornati, e l’attuale ambiente sanitario non fornisce incentivi per la condivisione dei dati in forma aperta.

Infine, sottolineano gli esperti, è necessario non dimenticare le questioni etiche e legali inerenti alla responsabilità professionale del personale sanitario nell’interazione con gli algoritmi.

In sintesi, sebbene l’intelligenza artificiale prometta di rivoluzionare il mondo della medicina, è importante affrontare le preoccupazioni che il suo uso solleva e garantire che sia utilizzata in modo responsabile, di concerto con i medici, al fine di migliorare sempre di più la salute dei pazienti. Oltre alla mera diagnostica, l’Intelligenza Artificiale sta permettendo la predizione di possibili patologie, ancora prima che queste manifestino i primi labili sintomi. Ad esempio, grazie all’analisi degli elettrocardiogrammi e alla storia clinica del paziente è possibile predire se una persona sia o meno a rischio di sviluppare patologie cardiovascolari come fibrillazione atriale o scompenso cardiaco.

Va detto, comunque, che l’uso dell’intelligenza artificiale in medicina comporta non pochi rischi. Uno dei più importanti – come evidenziato dal documento “Linee guida sull’uso dei sistemi intelligenza artificiale in ambito diagnostico” pubblicato dal Ministero della Salute – riguarda il fatto che sistemi utilizzati non siano stati sufficientemente testati e supportati da prove scientifiche. Andrebbero condotti studi clinici metodologicamente più solidi che coinvolgano più centri, ospedali e istituti (multicentrici) e che valutino gli effetti in maniera casuale (randomizzati) su un adeguato campione rappresentativo della popolazione presa in esame, a partire dall’inizio dello studio e fino alla sua conclusione (prospettici).

I sistemi di intelligenza artificiale, poi, andrebbero istruiti adeguatamente per evitare distorsioni di valutazione, in gergo tecnico ‘bias’. In letteratura, infatti, sono documentati casi di strumenti di intelligenza artificiale che hanno fallito nel rispondere a determinati quesiti (diagnostici, prognostici, predittivi) perché i pazienti per i quali si cercava la risposta non erano adeguatamente rappresentati nel campione con il quale il sistema era stato istruito.

Altri rischi evidenziati dal suddetto documento sono l’uso di sistemi di Intelligenza Artificiale privi di una rigorosa validazione scientifica; possibili violazioni della privacy degli utenti; mancanza di norme circa la responsabilità professionale del Medico nell’interazione con gli algoritmi; impreparazione del personale medico e sanitario al corretto utilizzo dei sistemi di Intelligenza Artificiale e alla appropriata modalità di comunicazione del loro utilizzo ai pazienti…

L’impetuoso sviluppo dell’Intelligenza Artificiale e la sempre più pervasiva presenza di internet rischiano di accreditare la possibilità di bypassare il medico tramite una “Medicina fai da te”; illusione, tra l’altro, fortificata dalla scomparsa del medico di base e della medicina territoriale, da una sempre più diffusa povertà (che impedisce oggi a sempre più persone di rivolgersi ad uno specialista) e dalla diffusione di tutta una serie di strumenti di monitoraggio (dispositivi indossabili come magliette, braccialetti, orologi intelligenti…) divenuti ormai dei gadget.

Sarebbe una scelta sbagliata in quanto ritengo che la tecnologia, l’Intelligenza artificiale, può integrare il lavoro del medico ma non sostituirlo. E la sempre più drammatica condizione della medicina territoriale non può certo essere affrontata con la tecnologia e con una medicina che mette al centro il mero business.

Infine per quanto riguarda l’intelligenza artificiale, premesso che vengono più approfonditi gli aspetti diagnostici, le scelte terapeutiche e l’approfondimento farmacologico, rimarrà sempre mancante il salto di qualità che viene dalla capacità della fantasia e come, dice Albert Einstein, l’immaginazione vale più della conoscenza.

Il rapporto medico-paziente non può essere quello dell’architetto o dell’idraulico, cioè adattare l’offerta come operatore di servizi per una medicina dei desideri.

Il percorso a tappe della tecnica che porta alla possibilità applicativa e quindi all’esaudire desideri inediti, che a loro volta diventano diritti, con la conclusione di una lotta per il riconoscimento giuridico. A questo la funzione direttiva passa dal diritto e dalla politica alla tecnica, con conseguente morte del diritto ed anche dell’etica.

Il filosofo secentesco inglese Thomas Hobbes (autore de ‘Il Leviatano’) diceva “auctoritas non veritas facit legem”: perciò è la forza a dettare la legge, non la verità delle cose.


Scopri di più da La voce Delle Voci

Abbonati per ricevere gli ultimi articoli inviati alla tua e-mail.

Lascia un commento