Medicina, per i sistemi di Intelligenza Artificiale servono nuove competenze
Introdurre in modo sicuro, controllato e governato, sistemi e soluzioni basate su tecniche di Intelligenza Artificiale (IA) nella pratica clinica. Questo lo stimolo proveniente dal recente documento del Consiglio Superiore di Sanità intitolato «I sistemi di intelligenza artificiale come strumento di supporto alla diagnostica».
In poco più di 40 pagine, il gruppo di lavoro di esperti accademici in campo medico e tecnologico elenca alcune proposte operative per dare una risposta concreta e istituzionale alla richiesta di sfruttare l'Intelligenza Artificiale in ambito medico-sanitario. Obiettivo, introdurre in modo sicuro i software di IA nella pratica clinica, stimolando al contempo l'implementazione di infrastrutture e la definizione di modelli di governance che possano stimolare ed accelerare l'innovazione e la competitività del nostro Paese a livello internazionale.
Il perché di questo documento
Nell'ultimo decennio la maturità delle tecnologie basate su Intelligenza Artificiale, la disponibilità di grandi moli di dati, l'espansione dei casi d'uso, hanno rivoluzionato la nostra quotidianità di cittadini e stanno modificando i nostri comportamenti e le nostre abitudini (spesso facciamo un uso inconsapevole delle soluzioni che già integrano e sfruttano tecniche di Intelligenza Artificiale, come quelli che classificano in modo automatico le immagini che scattiamo con i nostri telefonini intelligenti).
Il mondo sanitario in generale, e quello della diagnostica per immagini in particolare, seppur con comprensibile ritardo data la maggior complessità dei processi, sta subendo il medesimo sconvolgimento. «La prospettiva, più o meno a breve termine, sarà di doversi confrontare con sistemi esperti in grado di modificare significativamente i percorsi diagnostici e terapeutici, le modalità decisionali del Medico e, in ultimo, anche il rapporto Medico-Paziente», si legge nel documento del Consiglio Superiore di Sanità.In questo conteso, diventa fondamentale valutare per tempo, insieme alle potenzialità delle tecnologie, gli impatti ed i rischi legati al loro utilizzo e ulteriore sviluppo.
Affrontare i rischi per tempo
Uno sviluppo incontrollato e non governato dell'IA non è scevro da potenziali rischi, derivanti, per esempio, da:
- un utilizzo di sistemi di IA privi di una rigorosa validazione scientifica;
- una mancanza di controllo sulla modalità di processazione dei dati da parte dai sistemi esperti;
- possibili violazioni della privacy degli utenti;
- discriminazioni (ad esempio di razza e/o di genere) introdotte dalla programmazione degli algoritmi;
- assenza di informazioni circa la sicurezza e la riproducibilità nell'uso dei sistemi di IA;
- mancanza di norme circa la responsabilità professionale del medico nell'interazione con gli algoritmi;
- impreparazione del personale medico e sanitario al corretto utilizzo dei sistemi di IA e alla appropriata modalità di comunicazione del loro utilizzo ai pazienti;
- incomprensione da parte dell'utente/cittadino dei reali benefici e limitazioni dei sistemi di Intelligenza Artificiale.
Le Tech4Good per la diagnostica
Affrontare per tempo i rischi e valutare gli impatti derivanti dall'introduzione dell'IA nella pratica clinica, significa anche riconoscerne le potenzialità capendo qual è l'attuale stato dell'arte delle tecnologie.
Il tema dell'IA e quello della diagnostica sono strettamente connessi in virtù del concetto chiave di «predizione». Da un lato, una buona predizione consente di raggiungere una diagnosi accurata, dall'altro, l'IA sfrutta «modelli predittivi» matematici capaci di riconoscere e identificare precocemente gli esordi di una malattia anticipandone l'insorgenza.
Ad oggi, i contesti in cui vi è più numerosa letteratura sull'impiego dell'IA in diagnostica sono: radiologia, radioterapia, oftalmologia, dermatologia, gastroenterologia, ginecologia oncologica, senologia, ematologia e infettivologia.
Nel campo dell'identificazione di tumori polmonari, a titolo di esempio, algoritmi di Machine Learning (cioè di apprendimento automatico da parte dei sistemi), istruiti attraverso la scansione di oltre 34.000 radiografie toraciche, hanno raggiunto un livello di accuratezza superiore a 17 su 18 radiologi usati come confronto [fonte: «Development and validation of deep learning-based automatic detection algorithm for malignant pulmonary nodules on chest radiographs»]
Risultati simili si sono ottenuti nell'identificazione di tumori della mammella dove un sistema di IA adeguatamente istruito ha portato a una riduzione assoluta del 5,7% e 1,2% nei falsi positivi e del 9,4% e 2,7% nei falsi negativi, e, nel confronto con l'operato di 6 radiologi, a un aumento del 11,5% della sensibilità [fonte: «International evaluation of an AI system for breast cancer screening»].
In area dermatologica, sono diversi gli studi condotti sul campo per dimostrare l'accuratezza di sistemi di AI finalizzati all'identificazione di neoplasie. Uno studio, che utilizzava un ampio set di dati di addestramento di quasi 130.000 immagini, ha dimostrato l'affidabilità di un sistema di machine learning nell'identificazione di carcinoma e di melanoma con una sensibilità rispettivamente del 96% e del 94%, assolutamente sovrapponibili a quelle di 21 dermatologi americani certificati [fonte: «Dermatologist-level classification of skin cancer with deep neural networks»].
L'area oftalmologica è quella nella quale più numerose sono le prove di affidabilità dei sistemi di IA. Basti pensare che il primo sistema di IA approvato dalla Food and Drug Administration degli Stati Uniti come medical device è un algoritmo di machine learning (adeguatamente istruito con fotografie del fondo oculare, della cornea, della retina e del nervo ottico) che in uno studio prospettico condotto su 900 pazienti diabetici è stato in grado di identificare retinopatie con una sensibilità dell'87% e una specificità del 91% [fonte: «Pivotal trial of an autonomous AI-based diagnostic system for detection of diabetic retinopathy in primary care offices»]
Le iniziative concrete da programmare e attuare con urgenza
Sebbene siano molti gli studi che sembrano fornire prove di affidabilità a favore dei sistemi di IA usati in un contesto diagnostico, esistono alcune criticità non trascurabili. Sono ancora pochi gli studi clinici che confrontano la diagnosi raggiunta da un sistema di IA o di Machine Learning rispetto a quella raggiunta da un medico o un esperto della materia, e la maggior parte di questi ha un elevato rischio di bias (cioè pregiudizi) perché non correttamente condotti dal punto di vista metodologico.
A ciò occorre aggiungere il fatto che molti studi clinici sono retrospettivi e basati su set di dati precedentemente assemblati, sono ancora pochi quelli prospettici condotti in ambienti clinici reali.
Prima di poter essere impiegati in ambito assistenziale, i sistemi di IA necessitano quindi di una rigorosa validazione scientifica, basata su studi metodologicamente solidi che dimostrino la non inferiorità, o la superiorità, rispetto al percorso diagnostico e decisionale convenzionale. È, inoltre, importante dimostrare la sicurezza e la riproducibilità nell'uso del software, nonché considerare le emergenti problematiche etiche e legali inerenti alla responsabilità professionale del medico nell'interazione con gli algoritmi.
Queste alcune delle iniziative proposte dal gruppo di lavoro che ha redatto il documento del Consiglio Superiore di Sanità:
- creazione di una struttura di governance dei sistemi di IA da parte delle agenzie regolatorie italiane, in particolare il Ministero della Salute per ciò che riguarda i dispositivi medici e AIFA per gli eventuali aspetti terapeutici, con lo scopo di stabilire delle regole rigorose per l'approvazione e la registrazione di tali sistemi;
- predisposizione di Linee Guida nazionali riguardanti le modalità di integrazione e il corretto utilizzo dei sistemi di IA nella diagnostica, in accordo con le società scientifiche di riferimento;
- creazione di un osservatorio nazionale permanente presso il Ministero della Salute, per il monitoraggio delle performance dei sistemi di IA immessi sul mercato (analisi post-market);
- predisposizione di moduli formativi universitari e post-universitari per migliorare le conoscenze e competenze in materia di IA del personale medico e delle professioni sanitarie;
- integrazione di elementi metodologici in tema di IA all'interno dei programmi della scuola secondaria superiore e creazione di contenuti informativi, anche tramite canali informatici, al servizio del cittadino.
Negli ultimi due punti si intravede un importante cambiamento sul fronte delle competenze. Che tipo di conoscenze e abilità dovranno avere in futuro i medici e gli operatori sanitari?
@Tecnologia & Ambiente
Il futuro è già qui: tutto quello che c’è da sapere su Tecnologia e Ambiente.
Riproduzione riservata © Giornale di Brescia
Iscriviti al canale WhatsApp del GdB e resta aggiornato