L’OMS met en garde : l’Europe déploie l’IA dans la santé sans protections suffisantes des patients
L’intelligence artificielle (IA) transforme le secteur de la santé en Europe, promettant une meilleure prise en charge des patients et une pression moindre sur les personnels, mais elle est déployée sans garanties suffisantes pour les patients ou les professionnels de santé, selon un nouveau rapport de l’Organisation mondiale de la santé (OMS).
L’analyse a montré que l’adoption, la réglementation et le financement de l’IA en santé varient considérablement dans 50 pays couvrant l’Europe et l’Asie centrale.
La moitié des pays interrogés ont introduit des chatbots d’IA pour les patients, tandis que 32 utilisent des outils de diagnostic assistés par IA, notamment pour l’imagerie et la détection. Les pays explorent également l’IA pour le dépistage des patients, la pathologie, la santé mentale, l’analyse des données, les tâches administratives et la planification des effectifs.
Par exemple, l’Espagne teste des outils d’IA pour renforcer le dépistage précoce des maladies, la Finlande utilise l’IA pour former les professionnels de santé, et l’Estonie l’applique à l’analyse de données, indique le rapport.
Mais si 26 pays ont arrêté leurs priorités en matière d’IA dans la santé, seuls 14 ont alloué des financements à ces initiatives. Seuls quatre pays (Andorre, la Finlande, la Slovaquie et la Suède) disposent d’une stratégie nationale spécifiquement dédiée à l’IA en santé.
Le Dr Hans Kluge, directeur du bureau de l’OMS pour l’Europe, a averti que sans « des stratégies claires, la protection des données, des garde-fous juridiques et des investissements dans la maîtrise de l’IA », ces outils pourraient aggraver les inégalités de santé en Europe.
« L’IA est sur le point de révolutionner la santé, mais sa promesse ne se concrétisera que si les personnes et les patients restent au cœur de chaque décision », a déclaré Kluge dans un communiqué.
Un défi majeur : les outils d’IA reposent sur des ensembles de données massifs qui peuvent être défectueux, biaisés ou incomplets, ce qui signifie que leurs décisions peuvent refléter ces failles et entraîner des erreurs médicales, comme des diagnostics manqués ou des traitements inadaptés.
Le rapport de l’OMS indique que les pays devraient préciser qui est responsable de ces erreurs induites par l’IA.
Le rapport recommande que l’Europe veille à l’alignement de ses stratégies en matière d’IA sur les objectifs de santé publique, qu’elle forme les professionnels de santé à une utilisation efficace de l’IA, qu’elle renforce les lois et les lignes directrices éthiques autour de l’IA, et qu’elle maintienne la transparence auprès du public sur la manière dont l’IA est utilisée dans les soins de santé.
Le manque de normes claires pourrait déjà rendre les professionnels de santé réticents à utiliser les outils d’IA, a déclaré le Dr David Novillo Ortiz, qui travaille sur l’IA, les données et les initiatives de santé numérique au bureau régional de l’OMS pour l’Europe.
Les pays européens devraient « s’assurer que les systèmes d’IA sont testés en matière de sécurité, d’équité et d’efficacité dans des conditions réelles avant d’être déployés auprès des patients », a-t-il ajouté.
Today