La communauté scientifique alerte sur les risques encourus par les personnes fragiles avec l’IA générative (Chatbots de type ChatGPT)

Quand les chatbots et l’IA entrent en psychiatrie, les risques de la thérapie en libre-service

Des dizaines de millions de personnes utilisent les chatbots de type ChatGPT pour partager leur mal-être et la communauté scientifique alerte sur les risques encourus par les personnes fragiles. L’IA générative bouleverse les consultations psychiatriques, attise la convoitise des Gafam et devient une piste crédible pour analyser les maladies. 

Par Laure Belot

Publié hier à 18h00, modifié à 01h12 https://www.lemonde.fr/sciences/article/2026/01/12/sante-mentale-quand-les-chatbots-et-l-ia-entrent-en-psychiatrie-les-risques-de-la-therapie-en-libre-service_6661523_1650684.html

ALE+ALE

Tout s’est accéléré ces derniers mois. Des jeunes (et moins jeunes) du monde entier se sont emparés de ChatGPT et d’autres robots conversationnels pour leur confier leur mal-être. La justice est saisie sur plusieurs continents car ils auraient causé des états délirants ou, pire, servi d’assistant dans des suicides. Dernières annonces en date : mercredi 7 janvier, la création par Open AI de ChatGPT Health. Selon l’entreprise, les usagers, en connectant leurs dossiers de santé, pourront à partir de fin janvier avoir des réponses « plus personnalisées » du robot sans que ce soit « ni un diagnostic ni un traitement ». Lundi 12 janvier, la société Anthropic a, elle, dévoilé son propre programme, Claude for Healthcare.

La profession médicale est bousculée par le recours à ces chatbots, que les utilisateurs soient patients de services psychiatriques ou non. Les Gafam (Google, Amazon, Facebook – devenu Meta –, Apple, Microsoft) affichent, eux, leur volonté d’être des acteurs majeurs de la santé mentale numérique à l’aide de leurs modèles surpuissants d’intelligence artificielle (IA) générative. Leur trésor ? La masse inédite d’informations personnelles dites « multimodales » – voix, langage, mais aussi vitesse de frappe sur le clavier ou même rapidité de déplacement… – qu’ils captent à travers nos téléphones portables ou nos montres connectées.

Des recherches menées sur des patients en psychiatrie montrent que des technologies telles que le phénotypage numérique (données enregistrées passivement vingt-quatre heures sur vingt-quatre sur une personne pour suivre son comportement ou son état d’esprit), la réalité virtuelle et désormais l’IA générative sont crédibles pour aider les psychiatres dans leur pratique, notamment en indiquant des risques de rechute, problème majeur dans ce domaine. Ainsi, en France, un dispositif médical utilisant la voix et une IA générative pour suivre des patients souffrant de schizophrénie, de dépression ou de bipolarité est annoncé par la société française Callyope pour 2026.

L’Organisation mondiale de la santé (OMS) appelle de ses vœux ces innovations pour endiguer la croissance des problèmes de santé mentale, qui incluent les troubles mentaux, les handicaps psychosociaux ou des états mentaux entraînant une forte souffrance. « Pour les problèmes de santé mentale courante, telles la dépression et l’anxiété, des outils numériques d’auto-assistance peuvent être généralisés de manière efficace et abordable », note l’OMS dans une communication d’octobre 2025. Car, dans cette époque chaotique, plus de 1 milliard de personnes présentent des troubles mentaux, selon l’agence, et, dans environ sept cas sur dix, ces problèmes surviennent avant l’âge de 25 ans, selon TheLancet.

« La dépression est un fardeau dans tous les pays, mais encore plus dans ceux à faibles et moyens revenus », précise le psychiatre et chercheur en épidémiologie Etienne Duranté, qui réalise à l’Hôtel-Dieu une thèse sur les psychothérapies numériques. Le suicide est devenu, selon The Lancet, la cause principale de décès des 10 à 29 ans en Europe de l’Ouest et la troisième cause chez les jeunes dans le monde. En France, un tiers des 11-24 ans présentent des signes de détresse psychologique « moyens à sévères », selon des résultats préliminaires de l’étude longitudinale Mentalo menée par l’Inserm, publiés en octobre 2025.

La psychiatrie, « qui a été la discipline la plus sollicitée pour des consultations en ligne pendant la pandémie de Covid-19 », n’a plus les moyens de cette réponse synchrone (un médecin en ligne), explique un article dans World Psychiatry(juin 2025) dont le principal auteur, le psychiatre John Torous, exerce à la Harvard Medical School.

D’où l’émergence planétaire de nouvelles offres numériques dite « de santé mentale asynchrone » pour accompagner des personnes en faiblesse ou en stress. Il s’agit tout autant d’applications pour renforcer la prévention de la souffrance mentale que d’outils « pour permettre une pratique clinique augmentée, approche hybride où un médecin sera aidé par la technologie », observe le psychiatre Raphaël Gaillard, qui dirige le pôle hospitalo-universitaire de l’hôpital Sainte-Anne, à Paris.

Alors que le défi est de déterminer le bon dosage entre accompagnement humain et assistance numérique, des applications reconnues comme dispositifs médicaux sont expérimentées par exemple en Allemagne ou aux Etats-Unis. La France, elle, est à la traîne. « La Sécurité sociale ne rembourse pour l’instant aucun dispositif médical numérique en psychiatrie,regrette le professeur Ludovic Samalin, qui copilote depuis Clermont-Ferrand le « grand défi numérique en santé mentale », un programme public doté d’environ 15 millions d’euros. Nous sommes un pays prudent, mais qui a aussi tendance à commencer par critiquer les nouvelles idées. »

Comme dans tout moment d’accélération technologique, ces usages ou projets soulèvent des préoccupations éthiques et juridiques majeures. Sur les quelque 10 000 applications développées dans le monde sans IA générative et dites « de bien-être », évitant ainsi la régulation sur les dispositifs médicaux, seules 3 % ont fait l’objet de publications scientifiques. Quatre questions pour y voir plus clair.

Pourquoi des scientifiques alertent-ils sur l’usage des robots conversationnels généralistes ?

En novembre 2022, Sam Altman, PDG d’OpenAI, a choisi de rendre gratuit l’accès à ChatGPT. Alors que les grandes plateformes qui possédaient un chatbot d’IA générative s’étaient mises d’accord pour temporiser la sortie mondiale d’un tel outil, jugé immature, cette décision a eu l’effet que laissait présager le film d’anticipation Her (2013), dans lequel un célibataire devient affectivement dépendant d’une IA.

Des dizaines de millions de personnes, les jeunes en tête, utilisent désormais ces chatbots pour avoir de la compagnie ou être soutenues. Des cas très préoccupants ont été signalés : suicides, violences et apparitions de pensées délirantes. Interrogé en novembre 2025 dans une communication de Nature sur ses plus grandes inquiétudes concernant l’IA, Mustafa Suleyman, cofondateur de DeepMind (racheté par Google), désormais directeur du développement des produits d’IA grand public de Microsoft, pointe du doigt ce risque accru de délires lors d’interactions émotionnelles avec les chatbots.

La communauté scientifique, côté médecine ou technologies, multiplie les alertes. « C’est un nouveau problème de santé publique », ont affirmé neuf neuroscientifiques et informaticiens, dont certains chez des Gafam, dans une communicationdu 28 juillet 2025. Les chatbots présentent des biais technologiques, ont-ils souligné, disent ce que l’on veut entendre (sycophancy ou complaisance) et s’adaptent à la demande. Les personnes les plus fragiles, insistent ces chercheurs, peuvent développer une forte dépendance et voir leurs repères s’altérer, d’autant plus si elles sont socialement isolées. Les signataires appellent à « une action coordonnée des professionnels de la santé, des concepteurs d’IA et des autorités de régulation ».

ALE+ALE

Présentée à Madrid, le 22 octobre 2025, lors de la conférence sur l’intelligence artificielle, l’éthique et la société (AAAI/ACM), une étude de l’université Brown (Rhode Island) a détaillé comment ces chatbots « violent systématiquement les normes éthiques établies par l’American Psychological Association », même lorsqu’ils sont incités à utiliser des techniques de psychothérapie fondées sur des preuves. Ils fournissent, par exemple, des réponses trompeuses qui renforcent les croyances négatives des utilisateurs sur eux-mêmes et à l’égard des autres.

Quant aux améliorations annoncées pour que les chatbots soient plus prudents dans leur propos, celles-ci ne sont pas suffisantes, selon une analyse du laboratoire de santé mentale de l’université Stanford (Californie) pour l’ONG Common Sense Media, publiée le 20 novembre 2025. ChatGPT (OpenAI), Claude (Anthropic), Gemini (Google Alphabet) et Meta AI (Meta) « ne parviennent toujours pas à reconnaître et à répondre de manière appropriée aux troubles de santé mentale des jeunes », notent les chercheurs, citant notamment l’anxiété, la dépression, le TDAH (trouble du déficit de l’attention avec ou sans hyperactivité) ou les troubles alimentaires.

Du côté institutionnel, trois Etats américains (Illinois, Utah, Nevada) ont décidé, mi-2025, de restreindre l’usage des chatbots, interdisant notamment aux thérapeutes de conseiller à un patient de se confier à une IA générative. L’American Psychological Association a émis, le 13 novembre, un avertissement intitulé « L’intelligence artificielle et les applications de bien-être ne peuvent à elles seules résoudre la crise de la santé mentale ».

A ce jour, cependant, aucun organisme international ne surveille systématiquement les effets de l’IA sur la santé mentale, comme le fait l’OMS sur les risques sanitaires. Celle-ci a néanmoins donné, dans une note de mars 2025, des recommandations aux gouvernements et aux industriels sur l’usage des modèles de traitement du langage (LLM) médicaux telles que le devoir de preuve, la nécessité de transparence sur les données et l’évaluation du risque psychologique…

Comment les chatbots perturbent-ils les pratiques des psychiatres ?

« Il nous arrive à l’hôpital le même tremblement de terre qu’à l’avènement d’Internet, estime Pierre-Alexis Geoffroy, professeur en psychiatrie à l’hôpital Bichat, à Paris. La quasi-totalité de mes jeunes patients, de 18 à 40 ans, ont utilisé ChatGPT ou un autre chatbot avant de venir me voir, qu’ils souffrent de dépression, d’insomnie, de troubles bipolaires, de schizophrénie ou d’anxiété. » Ils se renseignaient déjà en ligne, poursuit le spécialiste, « mais désormais leur “savoir”, construit en autonomie à coups d’itération avec le chatbot, devient difficile à bousculer en consultation. Ces robots conversationnels peuvent enfermer les patients dans une pensée ».

Un praticien qui préfère garder l’anonymat pour préserver celui de ses patients détaille deux cas récents : « Une personne, qui avait un trouble autistique, a été convaincue par ChatGPT qu’elle était un génie incompris en sciences et dépose depuis dossier sur dossier à des institutions pour obtenir des financements. Il y a deux ans, j’aurais diagnostiqué un délire chronique paranoïaque. En fait, ce patient vit sa relation avec le chatbot comme si celui-ci était un authentique individu. »

Ce professionnel poursuit : « Une autre personne que je suis présente un fort trouble somatoforme [préoccupations excessives au sujet de symptômes physiques], elle aime jouer avec son antidépresseur, ajoutant ou retirant une ou deux gouttes chaque jour, relate-t-il. ChatGPT lui a affirmé que cette habitude expliquait tous les symptômes fonctionnels qu’elle ressentait. J’ai contredit en consultation le chatbot, précisant que ces petits changements de dose ne pouvaient provoquer de tels effets. Mon patient m’a alors rétorqué que je ne devais pas bien saisir comment fonctionnait le cerveau ! »

Lire l’enquête (2025) |  Article réservé à nos abonnés  « Ça ne remplace pas ma psy, mais ça permet de vider son sac » : ces jeunes qui s’en remettent à l’IA comme confident et soutien émotionnelLire plus tard

Pour mieux comprendre sa maladie, un jeune patient de Stéphane Mouchabac a soumis son dossier médical à son chatbot. « “Voilà ce que ChatGPT répond à mes questions, qu’en pensez-vous docteur ?”, m’a-t-il dit en début de consultation, se souvient le psychiatre de l’hôpital Saint-Antoine. J’ai pu confirmer ou infirmer certaines réponses, mais j’ai le sentiment qu’on n’est plus seulement deux, le psychiatre et le patient, dans mon bureau. »

La survenance de ces cas « entraîne pour l’instant des discussions informelles entre médecins sans vraiment de réflexion organisée », note Philippe Domenech, professeur en psychiatrie à l’hôpital Saint-Anne. Ce spécialiste des troubles obsessionnels compulsifs, particulièrement ouvert aux technologies, reconnaît cependant que « tout va très vite et que ce n’est pas simple de saisir l’ampleur de ce qui est en train de se passer ».

Depuis la Harvard Medical School, le professeur John Torous dit ne pas être surpris de ces exemples. « En France, en Amérique ou en Afrique du Sud, ces usages perturbent la profession, le phénomène est mondial », affirme cet expert, principal auteur de plusieurs méta-analyses de référence sur la psychiatrie numérique. « Cette perturbation n’est pas encore une disruption totale, car les outils numériques utilisés par les personnes [applications, robots conversationnels] ne gèrent encore pas bien les soins psychiatriques médicaux. » Mais, lorsque ceux-ci deviendront meilleurs et plus sûrs, ajoute-t-il, « cela changera notre façon de pratiquer. Nous devrons alors réfléchir à la manière de les intégrer ».

Pourquoi les Gafam veulent peser sur le secteur de la santé mentale ?

Depuis des décennies, la psychiatrie moderne est à la recherche de « biomarqueurs », des indicateurs objectifs tels qu’une prise de sang ou une image cérébrale qui aideraient un psychiatre à confirmer qu’une personne souffre de dépression, de schizophrénie ou de bipolarité. Mais, malgré les progrès des connaissances et les quelque 1 600 publications scientifiques sur ce sujet chaque année, « aucun biomarqueur n’est utilisé pour le diagnostic, qui reste clinique à ce jour », a déploré le psychiatre Pierre-Alexis Geoffroy lors du dernier sommet de l’encéphale à Paris, en janvier 2025.

Ce praticien a même ajouté que sa profession connaissait « une crise de la validité et de la fiabilité physiologique de [ses] diagnostics ». Cette situation est notamment liée à la complexité des cas à traiter : les symptômes des pathologies sont hétérogènes et varient dans le temps, l’histoire d’un patient et son environnement doivent être pris en compte.

D’où l’espoir suscité par les données personnelles multimodales rendues accessibles par les outils numériques. Des heures d’insomnie au degré de stress mesuré par l’activité électrodermale de la peau qui transpire, ces informations peuvent être captées passivement vingt-quatre heures sur vingt-quatre par des objets connectés (bracelets, smartphones) ou récoltées sur des applications sous forme de questionnaires.

« Les nouvelles méthodes d’intelligence artificielle vont nous permettre d’approcher ces nouveaux biomarqueurs avec une compréhension plus large », pronostique Pierre-Alexis Geoffroy. Raphaël Gaillard ajoute que « le diagnostic psychiatrique, souvent perçu comme subjectif, repose sur l’analyse d’une multitude de petits indices faite par un médecin expérimenté ». L’IA, poursuit-il, « va peut-être permettre de reproduire ce processus de manière algorithmique et externe, en ramassant des données qui sont autant de signaux faibles qu’on n’arrive pas à agréger ».

Ce défi, et le marché économique croissant qui l’accompagne, intéresse depuis des années les Gafam. En 2020, Amazon avait publié avec l’université de Sydney (Australie) les résultats d’une recherche sur des personnes anxieuses ou déprimées qui s’auto-évaluent avec le robot Alexa. Cette même année, X The Moonshot Factory, le laboratoire d’innovations radicales de Google Alphabet, mettait fin à un projet de trois ans, Amber, qui ambitionnait de « réduire radicalement l’anxiété et la dépression chez les jeunes », selon un document confidentiel dont Le Monde a pris connaissance. Ce programme, élaboré notamment avec les universités Stanford et de San Diego (Californie), voulait analyser avec une IA de type apprentissage machine trois types de données : des ondes cérébrales, des informations captées par des objets connectés et des réponses à des questionnaires par l’intermédiaire du smartphone. Contactée, l’entreprise américaine a confirmé l’existence d’Amber et a précisé que le projet avait mis en open source, à sa clôture, « ses conceptions matérielles et ses logiciels [tout en] permettant l’utilisation gratuite des brevets et des applications de l’équipe ».

Lire aussi notre chronique (2025) |   Mon coach est une IA : « Il m’a aidée à faire le ménage dans ma vie »

Cinq années plus tard, grâce au développement fulgurant de l’IA générative, les Gafam apportent de nouvelles propositions technologiques. Dans un article de JAMA Psychiatry du 19 novembre 2025, des chercheurs de Google DeepMind mettent en avant la « psychométrie générative » pour évaluer la santé mentale. Cette approche « exploite l’IA générative pour synthétiser des données multimodales », afin de « créer des données structurées à partir d’expériences humaines subjectives », précise Joëlle Barral, directrice de la recherche de Google DeepMind, dans un post sur LinkedIn. Microsoft, sous la plume de son directeur de la stratégie technologique, Thomas Klein, a publié, le 21 novembre, le livre L’IA au service de la santé, dont un chapitre est consacré à la santé mentale. « Tout comme l’imagerie médicale ou les antibiotiques, les outils informatiques ont révolutionné la pratique médicale, les LLM et l’IA pourraient bien constituer le prochain saut quantique en santé », explique le dirigeant.

L’incursion dans le secteur de la santé mentale de ces géants, dont les capitalisations boursières dépassent le produit intérieur brut de certains Etats, est commentée avec prudence par le monde psychiatrique. « Je n’ai rien dans l’absolu contre eux, mais ces acteurs sont dans le business et les données, nous, on est dans le soin, constate Stéphane Mouchabac. L’innovation numérique en psychiatrie doit obéir exactement aux mêmes règles éthiques et réglementaires que la médecine en général. »

Le professeur Raphaël Gaillard rappelle le point cardinal du secret médical en médecine. « Où vont numériquement les informations concernant les personnes ? Où sont-elles stockées ? Comment leur sécurité est-elle garantie ? », s’interroge-t-il. Le Français Guillaume Dumas, professeur de psychiatrie computationnelle à l’université de Montréal (Canada), ajoute : « En vertu du Patriot Act, les données hébergées aux Etats-Unis ne sont, selon moi, pas en sécurité car elles peuvent être saisies par un gouvernement pour des raisons politiques. »

Depuis Harvard, John Torous apporte d’autres réserves. « Je ne suis pas contre le fait que ces plateformes nous aident un jour à améliorer la situation mondiale en matière de santé mentale. Mais, sans investissement direct et sans construction de modèles spécifiques à la psychiatrie, les résultats ne seront pas là. Ramasser énormément de données permet peut-être d’obtenir une conversation thérapeutique, mais cela ne constitue pas une réelle thérapie. »

Peut-on faire confiance aux nouveaux robots conversationnels spécialisés en santé mentale ?

Le 25 novembre 2025, au colloque parisien Adopt AI, la société allemande HelloBetter a officiellement lancé Ello, chatbot spécialisé en santé mentale. « Comme on se brosse les dents chaque jour, Ello est conçu pour gérer le stress quotidiennement. Tout un chacun peut avoir besoin un jour de parler à quelqu’un », a relevé devant une salle comble Hannes Klöpper, PDG de l’entreprise.

Cette société est aussi à l’origine d’une application proposant des programmes de thérapie cognitivo-comportementale remboursés par la sécurité sociale allemande et utilisée « par 20 % des psychiatres », notamment pour des cas de burn-out, d’après M. Klöpper. HelloBetter met en avant sa culture académique en affirmant avoir réalisé trente essais contrôlés randomisés (comparaison avec des utilisateurs d’un placebo) de son application, conçue à partir des travaux du professeur de psychologie David Daniel Ebert (université technique de Munich).

Ce nouveau chatbot a été nourri des « interactions de HelloBetter avec ses 140 000 patients », précise son PDG. Surtout, des psychologues entrent en relation avec l’utilisateur, par chat ou par téléphone, en cas de signal de détresse détecté. Pour certifier l’efficacité d’Ello sur le sommeil, l’anxiété et la dépression, « un essai contrôlé randomisé est prévu au premier trimestre de 2026 », précise le dirigeant.

Ello va cependant devoir prouver scientifiquement sa crédibilité. Un premier revers vient en effet de toucher la société américaine Slingshot AI, qui a levé 93 millions de dollars (80 millions d’euros) à l’été 2025 pour lancer Ash, son chatbot spécialisé. Un journaliste britannique de The Verge a révélé le 10 décembre qu’Ash n’arrivait pas, en cas d’urgence, à lui donner le bon numéro de la ligne d’assistance au suicide : il donnait le numéro américain et non le numéro anglais, lieu de résidence de l’utilisateur. « Si une entreprise ne peut même pas faire apparaître le bon numéro d’urgence, cela vous indique que l’outil n’est pas prêt pour les soins cliniques », remarque le psychiatre John Torous. Ce dernier a été auditionné, le 18 novembre, à la Chambre des représentants des Etats-Unis dans le cadre d’une enquête sur les risques des chatbots. Le même mois, le comité consultatif sur la santé numérique de la Food and Drug Administration, l’agence américaine chargée de la surveillance des produits alimentaires et des médicaments, s’est penché sur la difficulté de prouver leur efficacité.

Un seul projet de chatbot thérapeutique, Therabot, non commercialisé et développé par des chercheurs du Dartmouth College (New Hampshire), a pour l’instant réalisé des essais contrôlés randomisés. Mais, déplore John Torous, le groupe témoin était une « liste d’attente » (soit les personnes utilisent Therabot, soit elles ne font rien)Ces essais, dit-il, « nous montrent que des gens présentant des problèmes de santé mentale peuvent utiliser un chatbot, ce que nous savions déjà. Nous voulons une étude comparant un chatbot thérapeutique à un chatbot de simple conversation afin d’isoler l’effet réel de la thérapie ». Pour cet expert de la psychiatrie numérique, « il est inquiétant que personne n’ait encore produit une étude de haute qualité avec un véritable groupe de contrôle actif ».

Laure Belot

Publié par jscheffer81

Cardiologue ancien chef de service au CH d'Albi et ancien administrateur Ancien membre de Conseil de Faculté Toulouse-Purpan et du bureau de la fédération des internes de région sanitaire Cofondateur de syndicats de praticiens hospitaliers et d'associations sur l'hôpital public et l'accès au soins - Comité de Défense de l'Hopital et de la Santé d'Albi Auteur du pacte écologique pour l'Albigeois en 2007 Candidat aux municipales sur les listes des verts et d'EELV avant 2020 Membre du Collectif Citoyen Albi

Laisser un commentaire