In parlamento

Anelli (Fnomceo): “Intelligenza artificiale sia supporto per il medico e non sostituto”

S
24 Esclusivo per Sanità24

Intelligenza artificiale in medicina sì, ma con paletti ben definiti: affinché a curarci non sia, in futuro, anziché un medico, un algoritmo. A tracciare i confini dell’utilizzo, il Presidente della Fnomceo, la Federazione nazionale degli Ordini dei Medici Chirurghi e degli Odontoiatri, Filippo Anelli, ascoltato questo pomeriggio in audizione presso la Commissione XI – Lavoro della Camera, nell’ambito dell’Indagine conoscitiva sul rapporto tra intelligenza artificiale e mondo del lavoro.
“L’Intelligenza artificiale in medicina – ha premesso Anelli - rappresenta l’innovazione dirompente per eccellenza: la disponibilità di una mole di dati praticamente illimitata e la possibilità di una facile e immediata elaborazione stanno aprendo scenari impensabili e dalle grandi potenzialità per pazienti ed operatori, anche e soprattutto in logica predittiva. L’IA, tuttavia, non è priva di criticità e come tutti gli strumenti può prestarsi a un utilizzo improprio. La diffusione massiva e sistemica di applicazioni di IA impone la necessità di una regolamentazione chiara e condivisa in linea con l’Europa”.
“L’impatto dell’Intelligenza Artificiale nella professione medica è profondo e multiforme – ha continuato - trasformando molti aspetti della fornitura di cure mediche, della ricerca e dell’amministrazione. Rimane comunque evidente che il ruolo del medico rimarrà centrale nella gestione del paziente, soprattutto per quanto riguarda l’approccio empatico e la capacità di sintesi per operare scelte che possono anche essere difformi da quanto un’analisi computazionale, statistica o basata su riconoscimento di pattern possano raccomandare”.
Tra le aree sulle quali l’IA ha maggior impatto, l’imaging, la diagnosi precoce, i piani di trattamento e terapie personalizzate; e, ancora, la progettazione di nuovi farmaci, tramite modelli predittivi; il monitoraggio dei pazienti in tempo reale; i compiti amministrativi e burocratici, quali la gestione degli appuntamenti o l’aggiornamento delle cartelle cliniche; la formazione, tramite modelli di simulazione avanzati; il coinvolgimento dei pazienti e l’aderenza alle terapie; la sorveglianza delle malattie e la previsione di epidemie e pandemie.
“L’IA nella professione medica – ha sintetizzato Anelli - non solo sta migliorando l’efficienza e l’accuratezza dei servizi sanitari, ma sta anche aprendo la strada a soluzioni sanitarie più innovative, personalizzate e accessibili in tutto il mondo. Tuttavia, è fondamentale affrontare le sfide etiche, legali e formative che accompagnano questi sviluppi. La privacy dei dati, la sicurezza informatica, la responsabilità medica e l’interpretazione corretta delle informazioni generate dall’IA sono tutti aspetti critici che devono essere gestiti attentamente”.
Tra i rischi paventati, anche quelli legati a un approccio eccessivamente centrato sull’efficienza, che potrebbe ridurre l’interazione umana e ridimensionare l’interazione medico-paziente. l’IA potrebbe inoltre non essere in grado di considerare adeguatamente la complessità del contesto clinico del singolo paziente, influenzato anche da fattori socioeconomici e da convinzioni e preferenze personali. Ancora, gli algoritmi potrebbero rispecchiare i pregiudizi umani nelle scelte decisionali o diventare il “magazzino” dell’opinione medica personale. Infine, ma non certo ultimo per importanza, gli algoritmi potrebbero perseguire obiettivi non etici. Il conflitto etico potrebbe crearsi per le differenze di intenti e obiettivi tra chi finanzia e realizza un algoritmo e chi lo utilizza.
“Per mitigare questi rischi- ha avvertito Anelli - è essenziale trovare un equilibrio tra l’efficienza offerta dall’IA e la necessità di considerare l’individualità e il contesto clinico di ciascun paziente. Gli operatori sanitari dovrebbero essere coinvolti attivamente nella gestione e nella supervisione dei sistemi di IA, garantendo che la tecnologia sia utilizzata come strumento complementare e non come sostituto delle competenze umane. Normative e linee guida chiare sono fondamentali per garantire un utilizzo etico e sicuro dell’IA in ambito medico”.
In conclusione, Anelli ha portato all’attenzione dei parlamentari un documento sintetico sull’Intelligenza artificiale, approvato dal Comitato Centrale, l’Organo di Governo della Fnomceo, il 4 marzo scorso.
Eccolo, di seguito, in versione integrale.
“L’Intelligenza Artificiale è utilizzata esclusivamente a supporto delle attività del medico per ottimizzare la qualità, la sicurezza e l’efficacia delle cure.
L’Intelligenza Artificiale per il suo utilizzo deve garantire al medico un livello ragionevole di esplicabilità e di trasparenza e la migliore qualità possibile dei dati, dei risultati e dei processi di sviluppo, per evitare distorsioni ed errori nonché disuguaglianze.
Nell’uso di sistemi IA all’interno del suo processo decisionale, il medico è tenuto ad informare il paziente, spiegando i motivi di tale uso, e assicurandosi che il paziente sia consapevole sia delle potenzialità che dei limiti e rischi connessi all’uso di tali tecnologie.
L’impiego di sistemi di IA è orientato al bene della persona e della salute pubblica, rispettando e promuovendo i principi di sostenibilità, universalità, equità e solidarietà, evitando ogni discriminazione o pregiudizio basato su genere, etnia, religione, orientamento sessuale o altri fattori che possano portare a un trattamento ingiusto o diseguale.
Non possono essere utilizzati sistemi di IA non certificati. Il medico, sulla base delle proprie competenze e conoscenze scientifiche, è responsabile delle attività di diagnosi, prognosi, terapia e delle correlate attività informative”.


© RIPRODUZIONE RISERVATA