I sistemi di intelligenza artificiale come strumento di supporto alla diagnostica

L’intelligenza artificiale (artificial intelligence, AI, nella dizione anglosassone) si sta diffondendo velocemente nel mondo sanitario, in particolare nella diagnostica per immagini, con la prospettiva per gli operatori di doversi confrontare più o meno a breve termine, con sistemi esperti in grado di modificare significativamente i percorsi diagnostici e terapeutici, le modalità decisionali del medico e in ultimo anche il rapporto medico-paziente.

Uno sviluppo incontrollato e non governato dell’AI può comportare potenziali rischi derivanti, ad esempio, dall’uso di sistemi di AI privi di una rigorosa validazione scientifica, dalla mancanza di controllo sui dati processati dai sistemi esperti, da possibili violazioni della privacy degli utenti e da discriminazioni introdotte dalla programmazione degli algoritmi. Un utilizzo improprio dei sistemi di AI potrebbe infine generare aspettative illusorie e fuorvianti per sanitari e pazienti.

Queste sono le basi a partire dalle quali il Consiglio Superiore di Sanità ha preparato nei mesi scorsi con il contributo di un gruppo di esperti del settore, un documento dal titolo “I sistemi di intelligenza artificiale come strumento di supporto alla diagnostica”1.

Il documento è di particolar interesse perché rappresenta la posizione del Ministero della Salute su un argomento spinoso in un’area dove sono numerosi i progetti in essere, molti dei quali privi di una qualunque validazione scientifica.


GLI ASPETTI DI VALIDAZIONE SCIENTIFICA

Da un’analisi della letteratura scientifica risulta che in ambito diagnostico i contesti in cui maggiormente sono documentate esperienze di AI e machine learning sono quelli riguardanti la radiologia, la radioterapia, l’oftalmologia, la dermatologia, la gastroenterologia, la ginecologia oncologica, la senologia, l’ematologia e l’infettivologia (compresa Covid-19). Sebbene siano molti gli studi che sembrano fornire prove di affidabilità a favore dei sistemi di AI usati in un contesto diagnostico, esistono alcune revisioni sistematiche e metanalisi che ne mettono in discussione la validità scientifica e la metodologia impiegata per raggiungere tali risultati. Pochi infatti sono gli studi clinici che confrontano la diagnosi raggiunta da un sistema di AI o di machine learning rispetto a quella raggiunta da un operatore sanitario o un esperto della materia; la maggior parte di questi ha un elevato rischio di bias perché non correttamente condotti dal punto di vista metodologico. A ciò occorre aggiungere il fatto che molti studi clinici sono retrospettivi mentre pochi sono quelli prospettici condotti in un contesto di real world e basati sul modello delle sperimentazioni cliniche controllate randomizzate. A complicare le cose e a mettere ulteriormente in discussione i risultati raggiunti dagli studi clinici è il fatto che molti di questi adottano una validazione interna del sistema di AI a scapito di una validazione esterna, più accurata nel raggiungere gli obiettivi. Il confronto tra le performance dei modelli di machine learning e quelle degli esperti (laddove esiste) è condotto utilizzando set di dati differenti.


GLI ALTRI PROBLEMI METODOLOGICI E STRUTTURALI

Altri problemi metodologici risiedono nell’ampio range di metriche usate per misurare le performance diagnostiche dei sistemi di AI che ne rende difficile il confronto e l’interpretazione, il ridotto numero di operatori sanitari coinvolti nel confronto delle prestazioni diagnostiche, la limitata generalizzazione dei risultati, la ridotta disponibilità di data-set e codici che rendono difficile la riproducibilità degli studi pubblicati.

Non bisogna inoltre dimenticare altre limitazioni che pregiudicano, in parte, lo sviluppo di strumenti diagnostici: i bias di selezione nella scelta dei campioni su cui tali sistemi vengono istruiti e che rendono l’algoritmo non applicabile a tutta la popolazione; la mancanza di trasparenza dell’algoritmo (nota con il termine di black box) che impedisce al medico che impiega il sistema di conoscere il ragionamento applicato per arrivare alla soluzione proposta; i problemi di sicurezza dei dati dei pazienti che possono mettere a rischio la loro privacy. Infine, occorre registrare una certa impreparazione del personale medico e sanitario al corretto utilizzo dei sistemi di AI e alla appropriata modalità di comunicazione del loro utilizzo ai pazienti a cui si aggiunge una legittima incomprensione da parte dell’utente/cittadino dei reali benefici e limitazioni dei sistemi di AI.






LE PROPOSTE OPERATIVE

Nell’ultima parte del documento sono elencate una serie di proposte operative finalizzate sia all’introduzione in modo sicuro dei software di AI nella pratica clinica sia alla implementazione di infrastrutture e di modalità di governance che possano rendere il nostro Paese competitivo a livello internazionale nella programmazione e nello sviluppo dei sistemi di AI.

In particolare, il documento suggerisce che prima di poter essere impiegati in ambito assistenziale, i sistemi di AI e di machine learning debbano passare attraverso il vaglio di una rigorosa validazione scientifica, basata su studi metodologicamente solidi (prospettici, possibilmente randomizzati e condotti in ambienti clinici reali) che dimostrino la non inferiorità, o la superiorità, oltreché il rapporto costo-efficacia, rispetto al percorso diagnostico e decisionale convenzionale. Inoltre, sottolinea l’importanza di dimostrare la sicurezza e la riproducibilità nell’uso del software e di considerare le emergenti problematiche etiche e legali inerenti la responsabilità professionale del medico nell’interazione con gli algoritmi.

Per poter introdurre in modo sicuro nella pratica clinica i sistemi di AI e per competere in ambito internazionale nella realizzazione e nello sviluppo degli stessi, il documento suggerisce che in Italia siano attuati i seguenti interventi:

realizzazione di una infrastruttura organizzativa, informatizzata, a livello locale, regionale o nazionale, di data stewardship e data governance;

creazione di una struttura di governance dei sistemi di AI da parte delle agenzie regolatorie italiane, in particolare il Ministero della Salute per ciò che riguarda i dispositivi medici e AIFA per gli eventuali aspetti terapeutici, con lo scopo di stabilire delle regole rigorose per l’approvazione e la registrazione di tali sistemi;

predisposizione di Linee Guida nazionali riguardanti le modalità di integrazione e il corretto utilizzo dei sistemi di AI nella diagnostica, in accordo con le società scientifiche di riferimento;

creazione di un osservatorio nazionale permanente presso il Ministero della Salute, per il monitoraggio delle performance dei sistemi di AI immessi sul mercato (analisi post-market);

predisposizione di moduli formativi universitari e post-universitari per migliorare le conoscenze e competenze in materia di AI del personale medico e delle professioni sanitarie;

integrazione di elementi metodologici in tema di AI all’interno dei programmi della scuola secondaria superiore e creazione di contenuti informativi, anche tramite canali informatici, al servizio del cittadino.

Eugenio Santoro

Laboratorio di informatica medica,

Dipartimento di Salute Pubblica

Istituto di Ricerche Farmacologiche Mario Negri IRCCS, Milano

eugenio.santoro@marionegri.it


1. Consiglio Superiore di Sanità. II sistemi di intelligenza artificiale come strumento di supporto alla diagnostica. Ministero della Salute, 9 novembre 2021. URL: https://www.salute.gov.it/imgs/C_17_pubblicazioni_3218_allegato.pdf (ultimo accesso del 27 aprile 2022).

L’articolo è apparso, parzialmente, sul portale HealthTech360 (https://www.healthtech360.it/).