L’OMS demande à l’Europe de garder ses gardes-fous vis à vis de l’IA et de la santé

« IA et santé : l’Europe doit renforcer ses garde-fous juridiques, dit l’OMS »

 Date de publication : 20 novembre 2025 Temps de lecture: 2 min https://www.mediscoop.net/index.php?pageID=0229fdf522bba6e6948eec5a8a396a62&id_newsletter=22857&liste=0&site_origine=revue_mediscoop&nuid=44baf5968540a6248a8065e80f2f7273&midn=22857&from=newsletter


Le Figaro s’interroge : « Un nouvel outil utile pour la santé, ou porteur de risques nouveaux ? Alors que le recours à l’intelligence artificielle dans la santé progresse rapidement, l’OMS Europe pointe le manque de filets de sécurité juridiques nécessaires pour protéger les patients et les soignants ».


Le journal évoque ainsi « cette conclusion issue du premier rapport […] réalisé par l’OMS Europe sur l’adoption et la régulation de l’IA dans le domaine de la santé. Il se base sur les réponses de 50 des 53 pays membres de la région Europe, qui inclut des pays d’Asie centrale ».
Le quotidien explique que « le diagnostic assisté par l’IA se distingue comme l’application la plus courante, près des deux tiers des États membres utilisant l’IA pour améliorer l’imagerie et la détection. Les robots conversationnels destinés à aider les patients sont également largement utilisés, la moitié des États membres déclarant les avoir intégrés dans leurs soins. Mais seuls 4 pays (8%) ont adopté une stratégie nationale d’IA pour la santé et 7 autres sont en train de le faire ».


Natasha Azzopardi-Muscat, directrice des systèmes de santé à l’OMS/Europe, souligne ainsi que « nous sommes à la croisée des chemins.

Soit l’IA sera utilisée pour améliorer la santé et le bien-être des personnes, réduire la charge qui pèse sur nos professionnels de santé épuisés et faire baisser les coûts des soins de santé, soit elle pourrait nuire à la sécurité des patients, compromettre la vie privée et renforcer les inégalités en matière de soins ».


L’OMS appelle ainsi « à prendre en compte les risques potentiels, notamment les résultats biaisés ou de mauvaise qualité, les biais d’automatisation, l’érosion des compétences des cliniciens, la réduction des interactions entre cliniciens et patients et les résultats inéquitables pour les populations marginalisées ».


Le Figaro remarque enfin que « la réglementation peine à suivre le rythme d’adoption des technologies. […] L’OMS Europe demande aux pays de clarifier les responsabilités, de mettre en place des systèmes d’indemnisation et de s’assurer que les outils IA «sont testés en termes de sécurité, d’équité et d’efficacité» avant d’être mis en place ».

IA et santé : l’Europe manque de filets de sécurité juridiques pour protéger les patients, pointe l’OMS

Le diagnostic assisté par l’IA se distingue comme l’application la plus courante, près des deux tiers des États membres utilisant l’IA pour améliorer l’imagerie et la détection.
Le diagnostic assisté par l’IA se distingue comme l’application la plus courante, près des deux tiers des États membres utilisant l’IA pour améliorer l’imagerie et la détection. © Crédit photo : Illustration Shutterstock

Par SudOuest.fr avec AFP

Publié le 19/11/2025 à 8h58.  https://www.sudouest.fr/sciences-et-technologie/intelligence-artificielle/ia-et-sante-l-europe-manque-de-filets-de-securite-juridiques-pour-proteger-les-patients-pointe-l-oms-26775576.php

L’OMS Europe exhorte les pays européens à adopter des normes juridiques claires quant à l’utilisation de l’intelligence artificielle dans le secteur de la santé

Le recours aux outils d’intelligence artificielle dans la santé progresse rapidement en Europe mais manque de filets de sécurité juridiques nécessaires pour protéger les patients et les soignants, estime l’OMS Europe dans un rapport publié mercredi. Cette conclusion est issue du premier rapport réalisé par l’OMS Europe sur l’adoption et la régulation de l’IA dans le domaine de la santé, réalisé avec les réponses de 50 des 53 pays membres de la région Europe, qui inclut des pays d’Asie centrale.

Seuls quatre pays (8 %) ont adopté une stratégie nationale d’IA pour la santé et sept autres sont en train de le faire, selon le rapport. « Nous sommes à la croisée des chemins », estime Natasha Azzopardi-Muscat, directrice des systèmes de santé à l’OMS / Europe citée dans un communiqué.

SUR LE MÊME SUJET

Intelligence artificielle et santé : la HAS appelle les soignants à la prudence

Intelligence artificielle et santé : la HAS appelle les soignants à la prudence

La Haute Autorité de Santé émet des recommandations sur l’usage de l’IA par les professionnels de santé, soulignant les avantages potentiels et les risques à surveiller

« Soit l’IA sera utilisée pour améliorer la santé et le bien-être des personnes, réduire la charge qui pèse sur nos professionnels de santé épuisés et faire baisser les coûts des soins de santé, soit elle pourrait nuire à la sécurité des patients, compromettre la vie privée et renforcer les inégalités en matière de soins », ajoute-t-elle.

Le diagnostic assisté par l’IA se distingue comme l’application la plus courante, près des deux tiers des États membres utilisant l’IA pour améliorer l’imagerie et la détection. Les robots conversationnels destinés à aider les patients sont également largement utilisés, la moitié des États membres déclarant les avoir intégrés dans leurs soins.

« Risques potentiels »

L’OMS exhorte ses membres « à prendre en compte les risques potentiels, notamment les résultats biaisés ou de mauvaise qualité, les biais d’automatisation, l’érosion des compétences des cliniciens, la réduction des interactions entre cliniciens et patients et les résultats inéquitables pour les populations marginalisées ».

IA : l’Europe prête à assouplir ses règles critiquées par la tech, les associations de protection de la vie privée inquiètes

La régulation sur l’intelligence artificielle (IA) et la protection des données de l’UE est régulièrement pointée du doigt par les acteurs de la tech

La réglementation peine à suivre le rythme d’adoption des technologies, relève l’OMS Europe, indiquant que près de neuf pays sur 10 mentionnent l’incertitude juridique comme le principal frein à l’utilisation de l’IA. « Sans normes juridiques claires, les professionnels peuvent hésiter à se fier aux outils d’IA et les patients peuvent ne disposer d’aucun recours clair en cas de problème », souligne David Novillo Ortiz, conseiller en matière de données, d’intelligence artificielle et de santé numérique pour la région.

L’OMS Europe demande aux pays de clarifier les responsabilités, de mettre en place des systèmes d’indemnisation et de s’assurer que les outils IA « sont testés en termes de sécurité, d’équité et d’efficacité » avant d’être mis en place.

Voir aussi:

 Si nous agissons, nous pouvons bâtir une IA souveraine dans le domaine de la santé, adaptée à nos valeurs »

Tribune

Clément Goehrscofondateur et CEO de la medtech Synapse MedicineGuillaume Martinresponsable des affaires médicales de Synapse Medicine

Dans une tribune au « Monde », les dirigeants de la medtech Synapse Medicine, Clément Goehrs et Guillaume Martin, mettent en garde contre le risque de dépendance à l’égard de technologies étrangères, en particulier pour les dépenses.

Publié le 30 septembre 2025 à 14h00, modifié le 28 octobre 2025 à 14h30  Temps de Lecture 3 min.Offrir l’article Lire plus tard Partager

L’intelligence artificielle (IA) n’est plus une promesse lointaine dans le domaine de la santé. Selon l’American Medical Association, deux médecins sur trois aux Etats-Unis utilisent déjà des outils d’IA dans leur pratique quotidienne. Les usages observés en France montrent une tendance similaire. Chaque mois, des dizaines d’études montrent que des outils comme ChatGPT peuvent faire gagner du temps médical, réduire les erreurs et même améliorer la qualité des soins.

Lire aussi (2019) |  Article réservé à nos abonnés  Clément Goehrs, médecin de la génération IALire plus tard

Dans de nombreux hôpitaux et cabinets, ces IA sont déjà utilisées pour rédiger des courriers, résumer des dossiers ou suggérer des prescriptions. Demain, elles feront bien plus encore. L’Assurance-maladie trace déjà cette trajectoire : dans son rapport « Charges et produits 2026 », elle fixe l’objectif que, à l’horizon 2030, tous les prescripteurs utilisent des outils numériques de dernière génération, intégrant des algorithmes d’IA, pour améliorer la pertinence des soins.

Face à cette révolution, il serait naïf de croire que la France peut rester spectatrice. La réalité est implacable : les solutions les plus avancées viennent aujourd’hui des Etats-Unis. Comme pour les réseaux sociaux ou le cloud, nous risquons de dépendre totalement de technologies étrangères. Mais, lorsqu’il s’agit de santé, l’enjeu dépasse la souveraineté numérique : c’est l’équilibre même de notre système de financement qui pourrait être en jeu.

Zone grise déjà réelle

Car, si les médecins s’appuient demain massivement sur de l’IA américaine ou chinoise pour orienter leurs diagnostics, choisir un traitement ou décider d’un parcours de soins, cet outil aura un impact direct sur nos dépenses collectives. Nous passerions d’un système au sein duquel l’équilibre financier repose sur la formation et les choix de milliers de praticiens à un système dans lequel une technologie pourrait orienter massivement les prescriptions, et donc les dépenses. Cet effet pourrait, selon la manière dont l’IA est conçue, améliorer la pertinence des soins et contenir certaines dépenses… ou, au contraire, alourdir brutalement la facture de l’Assurance-maladie.

Ce risque n’a rien d’hypothétique. On sait déjà que les paramètres d’un algorithme peuvent, sans raison médico-économique valable, orienter vers des examens plus coûteux. Demain, rien n’empêchera un laboratoire pharmaceutique de financer un modèle pour mettre en avant ses propres molécules. Imaginer un président américain demandant que son IA recommande d’abord les médicaments made in America n’a rien d’absurde.

Lire aussi (2023) |  Article réservé à nos abonnés  Intelligence artificielle : sept solutions médicales prometteuses développées par des praticiens start-upeursLire plus tard

Transposé en France, cela représenterait des milliards d’euros supplémentaires pour l’Assurance-maladie – et donc, in fine, pour les contribuables et les patients. Sans aller jusqu’à ces scénarios extrêmes, il faut rappeler que les recommandations médicales varient d’un pays à l’autre. Certes, les IA peuvent être adaptées à un contexte national, mais cette adaptation reste imparfaite et rarement contrôlée, un constat souligné par des chercheurs dans une tribune publiée dans Le Monde daté du 10 septembre.

L’essor de ces technologies repose sur une zone grise déjà bien réelle. Aujourd’hui, de nombreux médecins utilisent ChatGPT, un outil d’IA généraliste, comme aide à la décision. Or, ces outils généralistes échappent au règlement européen encadrant les dispositifs médicaux numériques, leurs éditeurs affirmant qu’ils ne sont pas destinés à cet usage. Pourtant, en Europe, tout logiciel médical d’aide à la décision doit obtenir un marquage CE, prouver sa sécurité et son efficacité clinique, et être soumis à une surveillance. D’où le paradoxe : plus une IA est puissante, plus elle est utilisée, plus elle échappe aux obligations spécifiques de son secteur. Sans clarification, c’est la cohérence de l’écosystème numérique et la soutenabilité de notre système de santé qui pourraient être menacées.

« Une IA adaptée à nos valeurs »

Pour autant, il ne s’agit pas de freiner l’innovation. L’IA appliquée à la santé peut générer des gains d’efficience considérables, améliorer la pertinence des prescriptions et renforcer la sécurité des soins. Mais, pour que ces promesses se concrétisent, elle doit être évaluée et intégrée dans un cadre clair. La France dispose des institutions pour le faire : la Haute Autorité de santé peut évaluer le service rendu de ces technologies comme elle le fait déjà pour les médicaments. L’Assurance-maladie peut financer les solutions dont le bénéfice, notamment médico-économique, est prouvé, au juste prix pour la collectivité.

Nous avons donc un choix à faire. Si nous restons passifs, nous importerons des solutions conçues ailleurs, avec leurs biais et leurs logiques économiques. Si nous agissons, nous pouvons bâtir une IA souveraine dans le domaine de la santé, adaptée à nos valeurs et à notre modèle de financement.

A l’heure où nos responsables politiques mettent tout en œuvre pour redresser les comptes de la Sécurité sociale, il est tout aussi vital que nous gardions la maîtrise de ces technologies. Cela suppose une stratégie européenne de souveraineté numérique, mais aussi d’utiliser dès aujourd’hui des outils conçus et évalués en France. Choisir le « made in France » en matière d’IA médicale, c’est non seulement faire émerger une industrie nationale stratégique, mais aussi contribuer à la pérennité de notre modèle social solidaire.

Docteur Clément Goehrs, cofondateur et CEO de la medtech Synapse Medicine, et docteur Guillaume Martin, responsable des affaires médicales de Synapse Medicine.

Clément Goehrs (cofondateur et CEO de la medtech Synapse Medicine) et  Guillaume Martin (responsable des affaires médicales de Synapse Medicine)

Publié par jscheffer81

Cardiologue ancien chef de service au CH d'Albi et ancien administrateur Ancien membre de Conseil de Faculté Toulouse-Purpan et du bureau de la fédération des internes de région sanitaire Cofondateur de syndicats de praticiens hospitaliers et d'associations sur l'hôpital public et l'accès au soins - Comité de Défense de l'Hopital et de la Santé d'Albi Auteur du pacte écologique pour l'Albigeois en 2007 Candidat aux municipales sur les listes des verts et d'EELV avant 2020 Membre du Collectif Citoyen Albi

Laisser un commentaire