L'Europa diffonde l'IA nella sanità senza sufficienti tutele, avverte l'OMS
L’intelligenza artificiale (IA) sta trasformando la sanità europea, promettendo cure migliori e meno pressione sul personale. Ma viene introdotta senza tutele adeguate per pazienti e operatori, secondo un nuovo rapporto dell’Organizzazione mondiale della sanità (OMS).
L’analisi ha rilevato che adozione, regolamentazione e finanziamenti dell’IA in sanità variano considerevolmente in 50 Paesi tra Europa e Asia centrale.
La metà dei Paesi intervistati ha introdotto chatbot basati sull’IA per i pazienti, mentre 32 utilizzano strumenti diagnostici basati sull’IA, soprattutto per la diagnostica per immagini e il rilevamento. I Paesi stanno inoltre esplorando l’IA per lo screening dei pazienti, l’anatomia patologica, la salute mentale, l’analisi dei dati, le attività amministrative e la pianificazione del personale.
La Spagna, per esempio, sta testando strumenti di IA per migliorare la diagnosi precoce delle malattie; la Finlandia usa l’IA per formare gli operatori sanitari; l’Estonia la applica all’analisi dei dati, secondo il rapporto.
Tuttavia, sebbene 26 Paesi abbiano definito le priorità per l’IA in sanità, solo 14 hanno stanziato fondi per attuarle. Solo quattro Paesi: Andorra, Finlandia, Slovacchia e Svezia, dispongono di una strategia nazionale specifica per l’IA in ambito sanitario.
Il dottor Hans Kluge, direttore dell’Ufficio europeo dell’OMS, ha avvertito che senza strategie chiare, protezione dei dati, garanzie legali e investimenti nell’alfabetizzazione all’IA, questi strumenti potrebbero aggravare le disuguaglianze sanitarie in Europa.
"L’IA è sul punto di rivoluzionare la sanità, ma la sua promessa si realizzerà solo se le persone e i pazienti resteranno al centro di ogni decisione", ha dichiarato Kluge in una nota.
Una sfida centrale: gli strumenti di IA si basano su enormi insiemi di dati che possono essere errati, distorti o incompleti. Le loro decisioni possono riflettere queste lacune e provocare errori clinici, come diagnosi mancate o terapie sbagliate.
Il rapporto dell’OMS afferma che i Paesi dovrebbero chiarire chi è responsabile di tali errori generati dall’IA.
Il rapporto raccomanda che l’Europa allinei le strategie sull’IA agli obiettivi di salute pubblica, formi gli operatori a usare l’IA in modo efficace, rafforzi le leggi e le linee guida etiche sull’IA e mantenga la trasparenza verso il pubblico su come l’IA viene utilizzata in sanità.
La mancanza di standard chiari potrebbe già rendere il personale sanitario restio a usare strumenti di IA, ha detto il dottor David Novillo Ortiz, che si occupa di IA, dati e salute digitale presso l’Ufficio europeo dell’OMS.
I Paesi europei dovrebbero "assicurarsi che i sistemi di IA siano testati per sicurezza, equità ed efficacia nel mondo reale prima di arrivare ai pazienti", ha aggiunto.
Today