60 Millions de consommateurs a enquêté sur la fiabilité de s chatbots (ChatGPT…)

Diagnostic médical : face à de vrais patients, les agents conversationnels ne seraient fiables qu’à 35%

Alors que les chatbots (ChatGPT, Gemini…) sont de plus en plus utilisés par les patients pour comprendre leurs documents médicaux, 60 Millions de consommateurs a enquêté sur leur fiabilité.

13/05/2026 Par Mathilde Gendron

Expliquer un compte-rendu médical, un bilan sanguin… Les patients se tournent désormais vers les agents conversationnels pour mieux comprendre leurs résultats. 60 Millions de consommateurs a enquêté pour estimer leur fiabilité, en testant ChatGPT, Gemini ou encore Le Chat.

Les résultats publiés en avril ont montré que ces chatbots sont performants sur des cas de patients fictifs rédigés par des médecins. Le taux de réussite avoisine les 95%. Mais face à des patients réels, les chiffres s’effondrent sous les 35%.

Formuler les bonnes questions

Si cette différence est si importante, c’est parce que ces outils fonctionnent à condition de leur formuler les bonnes questions. « C’est la vraie limite interne de cette technologie, estime Paul Valois, chef de projet à la Haute Autorité de santé (HAS). Si on oublie un élément déterminant, le robot n’aura pas le réflexe de le demander. C’est la différence entre le soignant et l’IA. »$

Lire aussi : Aux États-Unis, un chatbot est autorisé à renouveler des médicaments sans médecin

Même lorsque le chatbot trouve le bon diagnostic, il peut se tromper sur la conduite à tenir. Conscients de ces enjeux, les trois outils mentionnent tous : « Le Chat peut faire des erreurs. Vérifiez les réponses », « Gemini est une IA et peut se tromper » ou encore « ChatGPT peut commettre des erreurs. » 

Bientôt un ChatGPT dédié aux questions santé

Les chatbots se sont en revanche montrés performants pour vulgariser les documents. « Cela peut servir aux médecins pour expliciter la posologie, la manière de suivre le traitement », reconnaît Alexandre Biosse Duplan, chef de projet à la HAS.

Ces outils ne se concentrent cependant que sur les données chiffrées, sans prendre en compte le patient dans sa globalité (historique médical, antécédents…). Les algorithmes risquent alors de passer à côté d’une pathologie plus grave. Ils peuvent aussi produire des hallucinations, en inventant des corrélations inexistantes, des médicaments ou en échangeant des unités de conversion…

Auteur de l’article

Mathilde Gendron

journaliste pigiste en charge de la rubrique Santé numérique

Publié par jscheffer81

Cardiologue ancien chef de service au CH d'Albi et ancien administrateur Ancien membre de Conseil de Faculté Toulouse-Purpan et du bureau de la fédération des internes de région sanitaire Cofondateur de syndicats de praticiens hospitaliers et d'associations sur l'hôpital public et l'accès au soins - Comité de Défense de l'Hopital et de la Santé d'Albi Auteur du pacte écologique pour l'Albigeois en 2007 Candidat aux municipales sur les listes des verts et d'EELV avant 2020 Membre du Collectif Citoyen Albi

Laisser un commentaire