« L’IA façonne notre décor mental et influence le jeu politique » – Mathieu Chéret
Si rien n’est fait pour empêcher l’algorithme de structurer l’espace public, le pire est à venir. Dans l’IA contre le peuple (Le Bord de l’Eau), Mathieu Chéret, diplômé du CELSA, chef de mission communication et action territoriale dans le domaine de l’énergie, imagine ce « pire ». Il décrit le basculement dans la post-vérité et dans la post-démocratie. Il propose également une série de pistes et de lignes de défense susceptibles de refaire de la démocratie un projet et de sauver les fondements de notre société.
publié le 01/03/2026 https://elucid.media/democratie/l-ia-faconne-notre-decor-mental-et-influence-le-jeu-politique-mathieu-cheret
Par Laurent Ottavi

Laurent Ottavi (Élucid) : Au début de votre livre, vous écrivez que l’intelligence artificielle est désormais « au cœur du pouvoir ». Qu’entendez-vous par-là ? Cela a-t-il un rapport avec le concept d’« hypnocratie » que vous évoquez plus loin ?
Mathieu Chéret : Aujourd’hui, le centre de gravité du pouvoir ne se situe plus uniquement dans les institutions connues – gouvernement, parlement, médias – mais dans les infrastructures algorithmiques opaques qui structurent pourtant notre perception du réel. Depuis plus d’une dizaine d’années, l’IA organise les flux d’information, hiérarchise les sujets, amplifie certaines émotions et en invisibilise d’autres. Elle ne décide pas officiellement des lois, mais elle façonne l’environnement mental dans lequel les citoyens réfléchissent et les élus prennent leurs décisions. Or, lorsqu’on façonne le « décor mental », on influence profondément le jeu politique. C’est cette mutation du pouvoir, moins visible et plus diffuse, que désigne l’« hypnocratie ».
Ce terme a été popularisé en 2025 pour désigner une forme de pouvoir qui ne domine pas par la contrainte, mais par la captation de l’attention et la manipulation du réel. Le concept a été attribué à un auteur fictif (Jianwei Xun), en réalité élaboré comme une construction intellectuelle combinant travail humain et intelligence artificielle, ce qui en dit long sur l’époque que nous vivons.
Dans une hypnocratie, le pouvoir ne s’impose pas par la répression ou la censure, mais par la saturation et la captation de l’attention. Il ne réduit pas la pluralité des voix : il la submerge sous un excès de récits concurrents qui se neutralisent mutuellement. Autrement dit, on ne vous interdit pas de parler ; on rend votre parole inaudible. Les régimes autoritaires du XXe siècle avaient déjà compris que contrôler les représentations revenait à exercer un pouvoir sans précédent sur la société.
Élucid : Dans votre projection de notre société sur les prochaines années, vous évoquez l’émergence d’une « démocratie zombie », c’est-à-dire d’une démocratie dont les apparences sont sauves, mais qui est vidée de sa substance. À quoi ressemble-t-elle à grands traits et à quelles fonctions s’y abaissent les partis politiques ?
Mathieu Chéret : La démocratie zombie conserve toutes les apparences de la démocratie : les élections ont lieu, les institutions fonctionnent, les hommes politiques s’affrontent, les médias commentent et éclairent le débat politique. Rien ne semble formellement aboli. Et pourtant, quelque chose d’essentiel a disparu. On le ressent tous sans jamais vraiment réussir à le nommer. Le débat public ne repose plus sur une confrontation d’idées, mais sur une compétition d’émotions en temps réel. Les citoyens votent toujours, mais dans un environnement entièrement calibré pour susciter des réactions plutôt que pour favoriser le débat et la prise de décision.
Dans ce cadre, les partis politiques cessent progressivement d’apporter des visions collectives. Au lieu d’élaborer des projets cohérents, mobilisateurs, ils testent des mesures par des petites phrases, et adaptent leurs positions en fonction des courbes des sondages. Ils ne parlent plus au pays dans son ensemble ; ils s’adressent à des segments de la population. Aujourd’hui, un électeur urbain de 25 ans ne voit pas la même campagne qu’un retraité rural de 70 ans : chacun reçoit des messages adaptés à ses peurs, à ses colères, à ses centres d’intérêt. Il n’y a plus une campagne, mais une multitude de campagnes parallèles. Ce n’est pas une nouveauté, mais la performance émotionnelle a pris le pas sur tout le reste. La démocratie continue d’avancer, mais elle avance mécaniquement, comme si elle avait perdu sa capacité à se réfléchir elle-même. C’est en ce sens qu’elle devient « zombie » : elle marche encore, mais son âme s’est dissipée.
« Une société qui ne partage plus la même réalité devient vulnérable à toutes les manipulations et à tous les extrêmes. »
La guerre culturelle fait rage dans cette démocratie zombie, comme c’est déjà le cas à bien des égards aujourd’hui. Quelles en sont les caractéristiques et les objectifs ?
On a longtemps cru que la guerre du XXIe siècle serait économique. C’était une erreur : elle est culturelle. Et telle qu’elle se déploie, elle ne se réduit pas à un affrontement idéologique classique. Elle se caractérise par une polarisation permanente et par la désignation systématique d’ennemis symboliques – les élites, les médias, le wokisme, les institutions – et par une production continue de récits opposés destinés à empêcher toute discussion. Donald Trump est le maître en la matière. Il sature l’espace médiatique en permanence avec des récits qui provoquent inévitablement des émotions.
Son objectif n’est plus vraiment de convaincre ; il est de désorienter, de désarçonner. En multipliant les controverses, en entretenant l’indignation, ou en remettant en cause jusqu’aux faits les plus établis, comme le lieu de naissance de Barack Obama ou encore les causes réelles du réchauffement climatique, il rend impossible l’émergence d’un terrain partagé de discussion. Il déplace sans cesse le centre de gravité du débat, si bien que l’on finit par ne plus savoir sur quoi l’on débat vraiment. Malheureusement, une société qui ne partage plus la même réalité devient vulnérable à toutes les manipulations et à tous les extrêmes.
L’intelligence artificielle telle qu’elle se déploie aujourd’hui vous paraît-elle fatalement faire le succès de la droite, surtout de la plus radicale, voire extrême, et amener à des élections manipulées ?
Dans sa configuration actuelle, l’intelligence artificielle déployée par les grandes plateformes crée un environnement très favorable aux partis les plus radicaux, en particulier à l’extrême droite. Non pas parce que l’IA aurait une idéologie propre, mais parce qu’elle amplifie ce qui divise le plus. Elle repose sur des logiques économiques : maximiser l’engagement, capter l’attention, susciter des réactions immédiates. Or, ce sont les contenus les plus clivants, les plus identitaires, les plus émotionnels, ceux qui attisent la colère, la peur ou l’indignation, qui génèrent le plus d’interactions.
Et ce sont précisément ces registres que l’extrême droite maîtrise le mieux. Elle a très tôt compris le potentiel stratégique de l’IA : exploitation massive des données personnelles, micro-ciblage, production automatisée de contenus adaptés à chaque segment de la population.
L’IA permet aussi la production industrielle de faux contenus et la fabrication d’un soutien populaire artificiel par l’activation de milliers de bots. Par exemple, des vidéos deepfakes peuvent aujourd’hui faire dire à un candidat des propos qu’il n’a jamais tenus, et ces contenus peuvent circuler des millions de fois avant d’être retirés. On ne cherche plus seulement à convaincre : on installe une ambiance, une perception diffuse. Les élections ne sont plus nécessairement truquées dans les urnes, mais elles peuvent être profondément biaisées en amont, parce que les esprits ont été travaillés, parfois pendant plusieurs années.
« Nous tentons de corriger des effets alors qu’il faudrait interroger les structures mêmes qui produisent ces effets. »
Votre livre est aussi source de propositions. Un des points qui ressort de votre livre est que la vitesse de l’innovation technologique permet de déborder la loi. Est-il possible d’agir contre cela ?
Il est possible d’agir, mais à condition d’accepter que le problème est systémique. Aujourd’hui, le déséquilibre est frappant : des États discutent pendant des années avec des entreprises qui déploient des systèmes à l’échelle mondiale en quelques semaines. Nous tentons de corriger des effets alors qu’il faudrait interroger les structures mêmes qui produisent ces effets.
Agir suppose d’imposer des obligations de transparence sur les mécanismes de recommandation, de permettre des audits indépendants continus et de doter les institutions publiques de compétences technologiques à la hauteur des enjeux. Agir, cela suppose aussi d’assumer un rapport de force avec des acteurs privés devenus quasi-souverains. La loi ne peut plus se contenter d’accompagner l’innovation ; elle doit être en mesure de définir les lignes rouges à ne pas dépasser. Sinon, elle court en permanence derrière un train qu’elle ne rattrapera jamais.
Un volet majeur des remèdes que vous abordez consiste à démocratiser, c’est-à-dire à donner du pouvoir aux citoyens sur les architectures techniques, et à briser l’opacité dans laquelle les algorithmes sont orientés, une orientation qui va dans le sens de la manipulation. Par quels types de levier est-il possible d’agir ?
Démocratiser les architectures techniques signifie reconnaître qu’elles constituent désormais des infrastructures politiques. Les règles de hiérarchisation de l’information, les critères de recommandation, les mécanismes de visibilité ne peuvent rester des secrets industriels relevant uniquement d’intérêts privés. Ils déterminent en partie ce que nous voyons du monde et, donc, ce que nous pensons possible.
Il est possible d’imaginer des formes de supervision publique, des autorités indépendantes capables d’auditer les algorithmes, voire de créer des alternatives aux plateformes les plus toxiques. Pourquoi ne pas permettre à chacun de savoir selon quels critères un contenu lui est proposé, ou de choisir un mode de hiérarchisation différent ? Il ne s’agit pas de rendre chaque ligne de code publique, mais de réintroduire une responsabilité démocratique dans la conception des règles du jeu. Aujourd’hui, ces règles sont fixées par des entreprises dont l’objectif premier est le profit à court terme. Les réinscrire dans un cadre démocratique, c’est reconnaître que l’espace dans lequel nous nous informons est devenu un bien commun, et qu’un bien commun ne peut être gouverné uniquement par des logiques économiques privées.
En quoi nationaliser les données (ou des solutions équivalentes) et interdire certains réseaux sociaux constituent-ils des options intéressantes d’après vous ?
Les données personnelles constituent aujourd’hui la matière première du pouvoir algorithmique et la clé de son avenir économique. Celui qui contrôle les données contrôle la capacité d’anticiper et d’influencer les comportements des citoyens. Les considérer comme un bien commun permettrait de réduire la dépendance des États à l’égard d’acteurs privés mondialisés.
J’y vois aussi un enjeu de répartition de la valeur : aujourd’hui, l’exploitation massive des données concentre des ressources considérables entre les mains d’un nombre extrêmement restreint d’acteurs. En seulement quelques années, une rente algorithmique s’est mise en place, enrichissant une poignée d’acteurs. Dans ce contexte, la question d’une nationalisation totale ou partielle de certaines entreprises ne relève plus du tabou idéologique. L’histoire économique montre que lorsque des infrastructures deviennent indispensables à la vie collective – énergie, transport, télécommunications – leur statut finit par évoluer. Le numérique pourrait suivre une trajectoire comparable.
Quant à l’interdiction de certains réseaux, la question ne doit pas être posée en termes purement moraux, mais institutionnels. Lorsque des plateformes deviennent des infrastructures centrales du débat démocratique, leur statut change aussi. Elles ne sont plus de simples entreprises privées ; elles structurent l’espace public. Dans certains cas extrêmes, des restrictions peuvent être envisagées si des plateformes refusent toute coopération avec les autorités. L’enjeu n’est pas de faire taire, mais de réaffirmer que la souveraineté politique ne peut être déléguée à des conseils d’administration décentralisés à des milliers de kilomètres.
« La question démocratique et la question écologique sont liées par un même problème : l’absence de maîtrise collective des choix technologiques. »
Si le problème de l’intelligence artificielle n’est pas l’intelligence artificielle en tant que telle, mais qu’il est celui du contrôle démocratique sur la technologie, ce contrôle démocratique est-il aussi la solution aux problèmes qui se posent sur le plan écologique ?
Oui, car la question démocratique et la question écologique sont liées par un même problème : l’absence de maîtrise collective des choix technologiques. Les infrastructures d’IA – data centers, réseaux, chaînes d’approvisionnement – consomment des quantités massives d’énergie, mobilisent des ressources rares et s’inscrivent dans une dynamique de croissance permanente. Par exemple, l’entraînement d’une intelligence artificielle peut nécessiter une consommation électrique équivalente à celle de milliers de foyers pendant plusieurs semaines, sans compter l’eau utilisée pour refroidir les centres de données. On parle aussi souvent d’« innovation », mais on parle rarement des arbitrages qu’elle impose. Tant que leur développement est guidé uniquement par la compétition économique et géopolitique, leur impact écologique restera secondaire.
Un contrôle démocratique implique de décider collectivement quelles technologies sont réellement nécessaires, lesquelles relèvent d’une logique de surenchère concurrentielle, et lesquelles doivent être encadrées ou limitées. Toutes les applications de l’IA ne relèvent pas d’un progrès indispensable ; certaines répondent avant tout à des logiques de marché, à une gadgétisation excessive de la technologie visant à maximiser les profits. Reprendre le contrôle sur l’IA, ce n’est pas seulement défendre la démocratie, c’est aussi redéfinir nos priorités collectives dans un monde contraint par les limites planétaires. La question n’est donc plus « pouvons-nous le faire ? », mais « devons-nous le faire ? ». Vertigineux.
Propos recueillis par Laurent Ottavi.
Voir aussi:
Qu’est-ce que l’IA nous fait ?
Samedi 6 décembre 2025 https://www.radiofrance.fr/franceculture/podcasts/la-conversation-scientifique/qu-est-ce-que-l-ia-nous-fait-4047114
ÉCOUTER (60 min)
Dans notre monde gorgé d’écrans, rythmé par la musique des clics, en partie livré aux calculs algorithmiques, que devient ce que Paul Valéry appelait la « vie de l’esprit » ?
Avec
- Eric Sadin, philosophe, spécialiste des technologies numériques
- Anne Alombert, philosophe, maîtresse de conférences à l’Université Paris 8, spécialiste des enjeux anthropologiques des transformations technologiques contemporaines
L’expression intelligence artificielle a été inventée en 1956 par John McCarthy lors d’un séminaire sur la cybernétique à Dartmouth College, aux États-Unis. Il voulait ainsi désigner « un champ de recherche visant à décrire le fonctionnement des différents aspects de l’apprentissage de manière suffisamment précise pour qu’ils puissent être simulés par des machines ».
Provenant du podcast
La Conversation scientifique

Par Etienne Klein. Dans cette émission dédiée à la science et à ses spécialistes, Étienne Klein et ses invités mettent en lumière les savoirs des scientifiques, les questions qu’ils se posent et les moyens mis en œuvre pour trouver des réponses