La HAS publie ses premières recommandations sur l’usage de l’IA par les professionnels de santé
Quentin Haroche | 31 Octobre 2025 https://www.jim.fr/viewarticle/has-publie-ses-premières-recommandations-lusage-lia-2025a1000u08
Sans surprise, la HAS recommande aux médecins de s’approprier les outils d’IA dans leur pratique, mais de les utiliser dans une « démarche raisonnée ».
Le développement de l’intelligence artificielle (IA) et notamment, depuis trois ans, de l’IA générative, constitue assurément une révolution dans nos vies et notamment dans le domaine de la santé, au potentiel sans doute encore insoupçonné. Nombreux sont les médecins qui utilisent déjà dans leur pratique quotidienne des outils d’IA, conçus spécialement pour le domaine médical ou non, pour lire des résultats d’analyse, les aider dans leur diagnostic ou leur prescription ou plus prosaïquement pour réaliser des tâches administratives à leur place.
Depuis le sommet mondial sur l’IA, organisé en France en février dernier, les autorités ont déjà à plusieurs reprises exprimé leur volonté d’accompagner mais aussi d’encadrer l’usage de l’IA en santé. Cet encadrement de l’IA a pris une nouvelle ampleur, avec la publication par la Haute Autorité de Santé (HAS) ce jeudi de ses « premières clefs d’usage de l’IA générative en santé ».
Utiliser l’IA AVEC parcimonie
Sur la question de l’utilisation de l’IA en santé, la HAS fait part, pourrait-on dire, d’un enthousiasme modéré. Certes, le collège d’experts reconnait que « les systèmes d’intelligence artificielle (IA) générative peuvent être un levier d’amélioration de la qualité dans le système de santé ». La HAS relève notamment que le médecin peut utiliser l’IA pour « transcrire des conversations captées lors de consultation », « préremplir des formulaires administratifs » ou faire « la synthèse de la littérature scientifique ».
Mais le collège d’experts estime que ces outils d’IA « doivent être utilisés dans une démarche raisonnée » notamment car le contenu généré par ces outils peut « comporter des erreurs, notamment en se fondant sur des données sans vérification de leur véracité et contenir des éléments qui n’existent pas ». Leur utilisation « peut être associée à des pratiques inappropriées, telles que la transmission d’informations confidentielles » rappelle la HAS. « Par ailleurs, les systèmes d’IA générative induisent des coûts écologiques importants » ajoute le collège d’experts.
Dans un jeu de mots que Chat GPT serait bien incapable de concevoir, la HAS recommande donc que l’usage de l’IA générative en santé se fasse « AVEC le professionnel », c’est-à-dire selon quatre lignes directrices : « Apprendre, Vérifier, Estimer, Communiquer » (AVEC). Le médecin doit donc d’abord « apprendre» à utiliser l’IA, c’est-à-dire « s’approprier le fonctionnement et l’utilisation du système d’IA générative », en se renseignant sur les différents outils d’IA disponibles et en « choisissant un système d’IA générative cohérent avec ses besoins, pratiques et habitudes personnelles de travail ».
Ne pas dire « merci » à Chat GPT
Le professionnel de santé doit ensuite « vérifier » qu’il fait un bon usage de l’IA, en s’assurant notamment de ne pas partager d’informations confidentielles et en vérifiant les sources utilisées par l’IA. La HAS prend ici l’exemple du traitement de la maladie d’Alzheimer : un outil IA qui ne serait pas à jour des dernières données scientifiques pourrait recommander à tort l’utilisation d’inhibiteurs de l’acétylcholinestérase, qui ne sont plus recommandés par la communauté médicale depuis 2017. En tout état de cause, le professionnel de santé doit « conserver ses compétences » et ne pas se reposer entièrement sur l’IA, notamment car il pourrait avoir à s’en passer « si le système dysfonctionne » : une infirmière qui utilise l’IA pour l’aider dans le tri des patients doit ainsi toujours être capable de le faire sans cette aide extérieure.
La HAS recommande également au médecin de continuellement « estimer » si l’utilisation qu’il fait de l’IA est en adéquations avec ses besoins professionnels. Enfin, le professionnel de santé doit « communiquer », avec ses confrères, ses patients mais aussi avec l’IA, en « partageant avec l’entité des retours critiques sur la qualité des contenus générés ». La HAS formule également des recommandations plus surprenantes, comme le fait de se passer de formules de politesse lorsqu’on communique avec l’IA, « afin de ne pas consommer de ressources énergétiques inutiles ».
Ces recommandations de la HAS s’inscrivent dans son « projet stratégique 2025-2030 » et sa thématique phare « Numérique et IA en santé ». La HAS indique qu’elle publiera prochainement d’autres recommandations sur l’utilisation de l’IA, à destination des établissements de santé et des patients. L’institution indique par ailleurs qu’elle évalue également la possibilité d’utiliser elle-même l’IA dans son travail d’élaboration de recommandations, notamment pour « assister le processus de revue littéraire ».
On est donc en droit de se demander si la HAS a utilisé Chat GPT pour rédiger ses recommandations sur l’IA.
L’IA générative en santé : oui, avec un usage responsable. La Haute Autorité de santé (HAS) publie des premières clés d’usage de l’IA générative en santé destinées aux professionnels (Document)
Émis par : HAS
Les systèmes d’intelligence artificielle (IA) générative, tels que Mistral AI, CoPilot ou ChatGPT, se démocratisent à vitesse grand V. Faciles d’accès et de prise en main, des outils se développent également dans le secteur sanitaire, social et médico-social avec de nombreuses applications. Leur utilisation induit toutefois des risques qu’il convient de maitriser.
La Haute Autorité de santé (HAS) publie des premières clés d’usage de l’IA générative en santé destinées aux professionnels, qu’ils soient experts ou non du sujet. Le guide volontairement concis se structure en 4 lignes directrices accompagnées d’exemples issus du terrain. Une fiche sur l’utilisation de l’IA générative en santé par les usagers viendra compléter ces travaux.
Mistral AI, CoPilot, ChatGPT… De plus en plus de personnes les utilisent au quotidien dans un cadre personnel, mais aussi professionnel, essentiellement pour gagner du temps. Les outils de ce type sont désignés sous le terme de systèmes d’IA générative. Ils sont capables de générer un contenu (texte, image, son, vidéo…) en réponse à une question posée ou à une demande de tâche à effectuer (ces requêtes sont désignées sous le nom de « prompts »). Le système analyse alors un grand nombre de données accessibles en ligne ou fournies par l’utilisateur afin de générer un contenu cohérent.
Dans le secteur sanitaire, social et médico-social, les usages professionnels de ce type d’outils se multiplient.
Certains d’entre eux ne sont pas spécifiquement développés pour un usage dans un contexte de santé. Parallèlement, des technologies dédiées se développent et entrent également dans les pratiques : transcription de conversations lors de consultations, élaboration de synthèses de littérature scientifique ou encore de documents illustrés d’images pour expliquer des parcours médico-sociaux. Ces systèmes d’IA générative sont potentiellement prometteurs. Ils pourraient permettre de libérer du temps à dédier aux soins et accompagnements, améliorer la qualité de vie au travail et favoriser la qualité des pratiques professionnelles.
Les professionnels ne sont cependant pas toujours pleinement éclairés sur les performances et les limites des outils qu’ils utilisent. Leurs usages peuvent induire des risques si des précautions ne sont pas mises en place. En particulier, le contenu généré peut comporter des erreurs en se fondant sur des données non vérifiées ou en les dissimulant dans un contenu qui semble convaincant (on parle « d’hallucinations »). Des mauvaises pratiques sont aussi observées comme la transmission d’informations confidentielles. L’absence d’évaluation de l’utilité et de la pertinence de ces systèmes en santé peut enfin limiter la confiance des professionnels.
Dans ce contexte, la HAS publie un guide pédagogique volontairement concis afin de favoriser le bon usage de l’IA générative en santé et le déploiement dans le secteur sanitaire, social et médico-social des systèmes utiles et performants. Une fiche listant les points clés du guide est également mise à disposition.
Le bon usage de l’IA générative en santé se fait AVEC le professionnel
La HAS propose 4 lignes directrices : A.V.E.C. Pour favoriser une approche didactique et pragmatique, ces lignes directrices sont déclinées en clefs d’usage que tout professionnel peut mettre en place facilement, systématiquement illustrées par des exemples issus du terrain.
- A pour Apprendre: le professionnel s’approprie le fonctionnement et l’utilisation du système d’IA générative. Exemples : le professionnel se renseigne sur l’IA générative via des sources fiables, se forme sur les modalités d’utilisation notamment sur les règles liées à la confidentialité des données personnelles et de santé, s’interroge sur ses besoins pour s’orienter vers un système adapté, effectue des tests en pratique réelle…
- V pour Vérifier: le professionnel est attentif à la pertinence de son usage, à la qualité de sa requête et au contrôle du contenu généré. Exemples : le professionnel veille à ne pas partager d’informations confidentielles, à considérer chaque contenu généré comme une proposition pouvant contenir des erreurs à vérifier (valeurs et unités des quantités chiffrées, noms des médicaments…). Il est attentif au coût environnemental de l’IA et conserve une part de pratique réalisée sans l’IA générative.
- E pour Estimer: le professionnel analyse au cours du temps la qualité et l’adéquation aux besoins du système d’IA générative. Exemples : le professionnel se fixe des objectifs et réinterroge la pertinence de ses usages en prenant en compte le nombre de corrections faites, la facilité d’utilisation ou encore l’intégration au flux de travail dans un objectif d’amélioration organisationnelle.
- C pour Communiquer: le professionnel échange avec son écosystème dans une démarche d’amélioration continue. Exemples : le professionnel échange dans un langage adapté avec le patient ou la personne accompagnée autour de l’usage d’un système d’IA générative. Il favorise autant que possible les retours d’expériences avec d’autres utilisateurs afin de ne pas rester seul devant ces outils, il développe une démarche de transparence autour des typologies de données partagées, de l’adhésion au sein de sa structure et des impacts organisationnels…
Chaque usage doit être conscient, supervisé et raisonné. Bien maîtrisée, l’IA générative peut ainsi devenir une alliée au service de la qualité et de la sécurité des soins et accompagnements.
La publication du guide « Premières clefs d’usage de l’IA générative en santé » constitue la première brique du cadre de confiance de la HAS sur les technologies numériques et systèmes d’IA à usage professionnel. L’objectif est de favoriser une utilisation (ou non) éclairée et responsable de ces technologies.
Parmi les autres productions en développement sur l’IA :
– une fiche sur l’utilisation de l’IA générative en santé destinée aux usagers
– des recommandations pour accompagner les établissements et professionnels de santé dans le bon usage de l’IA (qu’elle soit générative ou non) en contexte de soins (voir la note de cadrage). Ce travail est mené en collaboration avec la Commission nationale de l’information et des libertés.
Pour en savoir plus :
Lire le communiqué de presse en ligne
Contacts presse : contact.presse@has-sante.fr
L’IA générative en santé : oui, avec un usage responsable
COMMUNIQUÉ DE PRESSE – Mis en ligne le 30 oct. 2025 https://www.has-sante.fr/jcms/p_3703069/fr/l-ia-generative-en-sante-oui-avec-un-usage-responsable
30 octobre 2025
Les systèmes d’intelligence artificielle (IA) générative, tels que Mistral AI, CoPilot ou ChatGPT, se démocratisent à vitesse grand V. Faciles d’accès et de prise en main, des outils se développent également dans le secteur sanitaire, social et médico-social avec de nombreuses applications. Leur utilisation induit toutefois des risques qu’il convient de maitriser. La Haute Autorité de santé (HAS) publie des premières clés d’usage de l’IA générative en santé destinées aux professionnels, qu’ils soient experts ou non du sujet. Le guide volontairement concis se structure en 4 lignes directrices accompagnées d’exemples issus du terrain. Une fiche sur l’utilisation de l’IA générative en santé par les usagers viendra compléter ces travaux.
Mistral AI, CoPilot, ChatGPT… De plus en plus de personnes les utilisent au quotidien dans un cadre personnel, mais aussi professionnel, essentiellement pour gagner du temps. Les outils de ce type sont désignés sous le terme de systèmes d’IA générative. Ils sont capables de générer un contenu (texte, image, son, vidéo…) en réponse à une question posée ou à une demande de tâche à effectuer (ces requêtes sont désignées sous le nom de « prompts »). Le système analyse alors un grand nombre de données accessibles en ligne ou fournies par l’utilisateur afin de générer un contenu cohérent.
Dans le secteur sanitaire, social et médico-social, les usages professionnels de ce type d’outils se multiplient. Certains d’entre eux ne sont pas spécifiquement développés pour un usage dans un contexte de santé. Parallèlement, des technologies dédiées se développent et entrent également dans les pratiques : transcription de conversations lors de consultations, élaboration de synthèses de littérature scientifique ou encore de documents illustrés d’images pour expliquer des parcours médico-sociaux. Ces systèmes d’IA générative sont potentiellement prometteurs. Ils pourraient permettre de libérer du temps à dédier aux soins et accompagnements, améliorer la qualité de vie au travail et favoriser la qualité des pratiques professionnelles.
Les professionnels ne sont cependant pas toujours pleinement éclairés sur les performances et les limites des outils qu’ils utilisent. Leurs usages peuvent induire des risques si des précautions ne sont pas mises en place. En particulier, le contenu généré peut comporter des erreurs en se fondant sur des données non vérifiées ou en les dissimulant dans un contenu qui semble convaincant (on parle « d’hallucinations »). Des mauvaises pratiques sont aussi observées comme la transmission d’informations confidentielles. L’absence d’évaluation de l’utilité et de la pertinence de ces systèmes en santé peut enfin limiter la confiance des professionnels. Dans ce contexte, la HAS publie un guide pédagogique volontairement concis afin de favoriser le bon usage de l’IA générative en santé et le déploiement dans le secteur sanitaire, social et médico-social des systèmes utiles et performants. Une fiche listant les points clés du guide est également mise à disposition.
Le bon usage de l’IA générative en santé se fait AVEC le professionnel
La HAS propose 4 lignes directrices : A.V.E.C. Pour favoriser une approche didactique et pragmatique, ces lignes directrices sont déclinées en clefs d’usage que tout professionnel peut mettre en place facilement, systématiquement illustrées par des exemples issus du terrain.
- A pour Apprendre: le professionnel s’approprie le fonctionnement et l’utilisation du système d’IA générative. Exemples : le professionnel se renseigne sur l’IA générative via des sources fiables, se forme sur les modalités d’utilisation notamment sur les règles liées à la confidentialité des données personnelles et de santé, s’interroge sur ses besoins pour s’orienter vers un système adapté, effectue des tests en pratique réelle…
- V pour Vérifier: le professionnel est attentif à la pertinence de son usage, à la qualité de sa requête et au contrôle du contenu généré. Exemples : le professionnel veille à ne pas partager d’informations confidentielles, à considérer chaque contenu généré comme une proposition pouvant contenir des erreurs à vérifier (valeurs et unités des quantités chiffrées, noms des médicaments…). Il est attentif au coût environnemental de l’IA et conserve une part de pratique réalisée sans l’IA générative.
- E pour Estimer: le professionnel analyse au cours du temps la qualité et l’adéquation aux besoins du système d’IA générative. Exemples : le professionnel se fixe des objectifs et réinterroge la pertinence de ses usages en prenant en compte le nombre de corrections faites, la facilité d’utilisation ou encore l’intégration au flux de travail dans un objectif d’amélioration organisationnelle.
- C pour Communiquer: le professionnel échange avec son écosystème dans une démarche d’amélioration continue.Exemples : le professionnel échange dans un langage adapté avec le patient ou la personne accompagnée autour de l’usage d’un système d’IA générative. Il favorise autant que possible les retours d’expériences avec d’autres utilisateurs afin de ne pas rester seul devant ces outils, il développe une démarche de transparence autour des typologies de données partagées, de l’adhésion au sein de sa structure et des impacts organisationnels…
Chaque usage doit être conscient, supervisé et raisonné. Bien maîtrisée, l’IA générative peut ainsi devenir une alliée au service de la qualité et de la sécurité des soins et accompagnements.
La publication du guide « Premières clefs d’usage de l’IA générative en santé » constitue la première brique du cadre de confiance de la HAS sur les technologies numériques et systèmes d’IA à usage professionnel. L’objectif est de favoriser une utilisation (ou non) éclairée et responsable de ces technologies.
Parmi les autres productions en développement sur l’IA :
- une fiche sur l’utilisation de l’IA générative en santé destinée aux usagers
- des recommandations pour accompagner les établissements et professionnels de santé dans le bon usage de l’IA (qu’elle soit générative ou non) en contexte de soins (voir la note de cadrage). Ce travail est mené en collaboration avec la Commission nationale de l’information et des libertés.