Après le boom, le krach ? L’IA générative face à ses mirages économiques
À quoi servent les IA génératives ? Trois ans après le lancement des outils de génération de texte et d’image à l’origine du « boom » de l’IA en 2022, les entreprises du secteur peinent toujours à amortir les investissements colossaux réalisés par l’industrie du numérique alors que le mirage de ses promesses commence à se dissiper. À sa place, le scepticisme s’installe et une « bulle » financière se profile.
publié le 11/11/2025 https://elucid.media/economie/apres-le-boom-le-krach-l-ia-generative-face-a-ses-mirages-economiques

Où sont les usages réels de l’IA générative ? Dans notre précédent article intitulé « Suicides, addictions, manipulations : les victimes invisibles de l’IA générative », nous développions l’idée que le marché des Intelligences artificielles génératives se tournait progressivement vers un usage social – et non économique – afin de générer du profit. Les gains de productivité promis peinent à se concrétiser, et cela se ressent dans la différence massive entre les investissements et les bénéfices attendus liés à cette technologie.
La promesse selon laquelle l’IA générative remplacerait des millions de travailleurs, voire automatiserait presque entièrement certains secteurs, ne s’est toujours pas réalisée. Le patron d’OpenAI, Sam Altman, ou celui de XAI, Elon Musk, avaient fait le pari qu’un accroissement continu de la puissance de calcul entraînerait nécessairement une amélioration constante de ces modèles au point d’obtenir une « IA consciente ».
Mais cela est faux : les articles de recherche récents montrent que cette voie est une impasse, avec notamment la démonstration que les « hallucinations », c’est-à-dire les erreurs factuelles commises par ces modèles, ne sont pas près de disparaître (1). Or, cela veut dire que ces outils ne sont pas fiables pour les entreprises. Et par conception, ces systèmes sont incapables de faire advenir une conscience artificielle, qui relève donc du fantasme – ou du mensonge aux investisseurs. Enfin, les modèles publiés début 2025 par DeepSeek, le rival chinois, prouvent qu’il est possible de faire aussi bien que ChatGPT avec dix fois moins d’argent et de ressources.
La méthode de Sam Altman atteint donc ses limites, et cela est particulièrement visible depuis le lancement très raté de GPT-5, début août 2025. La première grande critique est portée par ceux qui s’en servent comme « compagnon ». Comme nous le disions dans notre article intitulé « … », ces voix ont été suffisamment nombreuses pour qu’OpenAI fasse machine arrière et propose à nouveau GPT-4o, mais uniquement à ses utilisateurs payants. Une manière de tenter d’augmenter le nombre d’abonnés en tordant la main des utilisateurs.
Cela sonne déjà comme un aveu de faiblesse, mais il y a plus grave pour l’entreprise. Après les progrès visibles et remarqués des versions antérieures, GPT-5 n’offre que des avancées marginales. En décembre 2024, le Wall Street Journal rappelait ainsi que le « projet, officiellement appelé GPT-5 et dont le nom de code est Orion, est en cours depuis plus de 18 mois et a pour objectif d’aboutir à une avancée majeure dans la technologie qui est derrière ChatGPT ».
La promesse était d’en faire le « prochain grand bond en avant » du secteur, d’où la fébrilité d’OpenAI après avoir dépassé de deux ans la date initiale de lancement. Le résultat présenté le 7 août 2025 a été si décevant, et si loin des attentes surréalistes générées par un exercice de communication démesuré, que la réaction des utilisateurs a été unanime.
Le graphique ci-dessous (à gauche) diffusé par OpenAI circule notamment sur les réseaux sociaux. Il est censé représenter les progrès réalisés depuis les versions antérieures. Problème : les proportions ne sont pas du tout respectées. Ce qui pourrait sembler anodin révèle un problème très sérieux pour OpenAI : le nouveau modèle produit les mêmes erreurs qu’avant ; il n’est donc toujours pas fiable.
À gauche, l’erreur flagrante de mise à l’échelle donne l’impression d’une domination totale de GPT-5, alors qu’en réalité, il n’est que légèrement supérieur à OpenAI o3 – @OpenAI
La presse, les forums spécialisés et les réseaux sociaux font bruyamment état de leur déception : on s’attendait à un développement phénoménal, et finalement, c’est un système assez similaire à son prédécesseur auquel on a droit, le style en moins. Le philosophe Emile P. Torres (2) en a proposé un bêtisier dans un billet de blog le 9 août dernier, qui recense certains exemples particulièrement embarrassants. Si les versions précédentes de ChatGPT étaient incapables de compter le nombre d’occurrences de la lettre « r » dans strawberry (fraise), celle-ci ne pouvait toujours pas compter correctement combien de « b » on trouve dans « blueberry » (myrtille) au moment de son lancement.
Ce genre d’erreur génère encore beaucoup d’intérêt, car il met en évidence l’incapacité à raisonner de ces systèmes qui, rappelons-le, sont des machines probabilistes. Il ne faudrait pas perdre de vue le fondement de cette technique, expliqué ainsi par le physicien et philosophe des sciences Adam Becker – cité par Emile Torres :
« ChatGPT est un engin de génération de texte qui émet une version brouillée de la voix de tout ce qui compose internet. Tout ce qu’il sait faire, c’est émuler cette voix, et tout ce qui le préoccupe est d’arriver à la répliquer correctement. En ce sens, il n’est pas en train de commettre une erreur quand il hallucine, car ChatGPT ne sait rien faire d’autre qu’halluciner. »
Sam Altman prétend pourtant que cette nouvelle version est au même niveau qu’un titulaire de doctorat, capable de remplacer toutes sortes de travailleurs dans les domaines les plus divers. Même si cela peut paraître étonnant, cette affirmation est largement en deçà de ses prédictions habituelles. Il conclut que GPT-5 est « généralement intelligent », mais se voit obligé d’admettre qu’on est encore loin de « l’intelligence artificielle générale » promise.
Peut-être de manière plus significative, Altman reconnaît désormais l’existence d’une bulle financière dans le secteur. Pour essayer de rattraper le lancement de GPT-5, il a convié plusieurs journalistes à dîner. Le média The Verge en a rendu compte dans un article le 15 août 2025, et attribue au PDG d’OpenAI cette citation :
« Si vous regardez la plupart des bulles dans l’Histoire, genre les bulles de la tech, il y avait un vrai truc. La tech, c’était vraiment important. L’internet c’était quelque chose de sérieux. Les gens se sont emportés. Est-ce qu’on est dans une phase où les investisseurs sont trop enthousiastes sur l’IA ? À mon avis, la réponse est oui. Est-ce que l’IA est l’avancée la plus importante depuis très longtemps ? À mon avis, la réponse est aussi oui. »
Cette attitude est d’autant plus remarquable que Sam Altman portait un discours messianique sur l’IA depuis très longtemps, et ce afin d’attirer des investissements conséquents pour sa firme : il n’est pas du tout anodin de le voir reconnaître que les attentes sont au-dessus de la réalité.
Le secteur de l’IA générative hallucine des modèles économiques viables
Nous assistons donc à deux désillusions majeures. La première concerne les tenants de la « singularité », ce moment où l’IA échapperait au contrôle humain et deviendrait totalement autonome. La seconde concerne les investisseurs qui croient dans la capacité de ces développements à créer des revenus gigantesques – et ce, notamment en remplaçant des travailleurs.
Le pivot d’une vision idéologique de la mission d’OpenAI (l’avènement d’une « super-intelligence ») vers une perspective purement financière a déjà quelques mois. En décembre 2024, le média The Information expliquait que, selon les termes du partenariat entre Microsoft et OpenAI, l’objectif d’atteindre l’« Intelligence artificielle générale » serait atteint lorsque l’entreprise aurait généré 100 milliards de dollars de bénéfice. On passe donc d’une définition conceptuelle à une autre purement comptable.
Or, non seulement nous sommes encore loin des 100 milliards, mais OpenAI continue d’être largement déficitaire et son modèle économique ne prévoit pas de bénéfices avant 2029. Ce plan, là encore révélé par The Information en octobre 2024, repose sur un triplement de ses dépenses entre 2024 et 2026, et sur une perspective de profits qui prévoit une multiplication par 100 de ses bénéfices entre 2023 et 2029.
Il faut donc justifier des dépenses énormes auprès des investisseurs, et par conséquent tenter d’expliquer qu’on va générer des revenus démesurés. Mais ce récit est en train de sérieusement dérailler en 2025.
En février, dans le contexte de la panique sur les marchés américains due à la publication du modèle chinois Deepseek, le journaliste technocritique Ed Zitron répétait que nous étions face à une bulle construite sur « pas grand-chose » et que « quand vous regardez vraiment les produits, comme l’opérateur d’OpenAI, ils sont nuls. C’est de la daube. Ça ne marche pas. Ça ne marche pas ». Avec le lancement raté de GPT-5 six mois plus tard, il explique dans un long article sur son blog pourquoi ces entreprises sont aussi dépensières et incapables d’honorer ces promesses de profits démesurés :
« Le vrai problème est […] que les entreprises d’IA générative sont alourdies par une forme de dette numérique constante et agressive – une punition sans fin que sont les coûts d’accès à l’interface de programmation (3) pour les modèles d’IA génératives. Ils ont toujours l’air d’être un petit peu meilleurs, mais jamais d’une façon qui change réellement quoi que ce soit d’autre que le montant dont auront besoin Anthropic et OpenAI à la fin du mois, sans quoi ces start-ups se font briser les jambes.
[…] Anthropic a un besoin existentiel de rouler ses clients dans la farine en augmentant les prix et en imposant des engagements à long terme, mais son existence est aussi, d’une certaine manière, fondée sur l’existence de ces entreprises. Si Cursor et Replit meurent toutes deux, c’est une part importante du business d’interface de programmation qui disparaît en un clin d’œil – et permettez-moi de vous rappeler que celle-ci éclipse son modèle de souscription (ce qui en fait presque l’inverse d’OpenAI, où les souscriptions représentent la plupart des revenus). »
Ed Zitron décrit donc un secteur embarqué dans une longue fuite en avant, qu’il n’hésite d’ailleurs pas à comparer au secteur financier à la veille de la crise des subprimes de 2008. Prenons une vue d’ensemble : l’économiste Michael Roberts expliquait déjà dans un billet de blog daté du 27 juillet 2025 que « d’ici à la fin de l’année, Meta, Amazon, Microsoft, Google et Tesla auront dépensé plus de 560 milliards de dollars en capital fixe pour l’IA ces deux dernières années, mais n’auront obtenu des revenus cumulés que d’environ 35 milliards ».
Selon Roberts, ce modèle économique n’en est pas un : pour chaque dollar gagné, le secteur en dépense seize. Non seulement il n’y a toujours aucun débouché qui permette de réduire cet écart, mais il continue de se creuser. Le 10 septembre dernier, OpenAI annonçait ainsi un nouvel accord avec l’entreprise Oracle, prévoyant de dépenser 300 milliards de dollars dans les cinq années à venir. Michael Roberts pense donc qu’il s’agit d’une poudrière dont la mèche est allumée :
« Prenez le très célèbre ChatGPT. Il y a apparemment 500 millions d’utilisateurs actifs hebdomadaires – mais au dernier décompte, seulement 15,5 millions étaient des utilisateurs payants, un taux de conversion de 3 % seulement. Bien que le nombre de personnes qui utilisent des robots conversationnels augmente, seul un tout petit nombre paie pour le service d’IA qu’il utilise, produisant un revenu annuel d’environ 12 milliards de dollars, selon une enquête menée par Menlo Ventures auprès de 5 000 adultes américains. […]
[Ce sont] donc des investissements gigantesques en argent et en ressources, des paiements astronomiques aux formateurs de données (4) et des data centers géants en construction – l’engouement en faveur de l’IA emmène le marché financier vers de nouveaux sommets – mais qui, jusqu’à présent, n’engendrent pas de revenus significatifs et virtuellement aucun profit. C’est une répétition de la bulle des dotcom sous stéroïdes. »
On comprend mieux d’où vient cette idée que « ChatGPT-5 menace de faire imploser la bulle de l’IA générative », pour reprendre le titre d’un billet du journaliste Christophe Le Boucher (alias Politicoboy). Ce dernier signale cependant que ce lancement raté pourrait être « un tournant dans la stratégie d’OpenAI, qui abandonnerait la course à l’IA générale (AGI) pour se focaliser sur la rentabilité à court terme ».
Daron Acemoglu, économiste du Massachussets Institute of Technology (MIT), connu pour son travail sur l’IA, réagit dans un article publié le 28 août 2025 par le magazine Inc.com. Selon lui, « l’IA est too big to fail (5) aux États-Unis, par son degré d’imbrication avec le gouvernement, et aussi vu à quel point l’investissement lié à l’IA porte à bout de bras le marché financier et l’économie tout entière ». Les plus grosses multinationales du secteur consolideraient alors leur situation d’oligopole, mais la crise emporterait les structures plus petites, notamment celles qui proposent des produits basés sur les modèles d’IA générative existants.
Une crise économique majeure à l’horizon ?
Michael Roberts conclut son billet de blog en insistant sur le fait que l’existence d’une bulle spéculative n’est pas contradictoire avec l’adoption massive d’une évolution technique majeure. Tout l’enjeu est de savoir s’il y a ou non des gains de productivité :
« La bulle des dotcom a éclaté en l’an 2000 avec une chute brutale du marché, mais l’internet a continué de s’étendre dans tous les secteurs économiques et tous les foyers, et les Sept Magnifiques (6) ont émergé.
[…] Si les technologies de l’IA s’étendent et sont implémentées avec succès, l’OCDE prédit que la productivité globale du travail augmentera de 2,4 points de pourcentage dans le courant des dix prochaines années, et ajoutera 4 % au PIB mondial par rapport aux tendances actuelles. Toutefois, si l’IA ne parvient pas à réduire suffisamment lebesoin en main-d’œuvre humaine et ne se généralise pas à tous les secteurs, laproductivité du travail pourrait n’augmenter que de 0,8 point de pourcentage au-dessus du niveau actuel dans dix ans (contre 0,8 % par an actuellement) et lacroissance économique mondiale resterait inchangée. Tout reste à voir. »
La chose semble mal engagée. Ainsi, les chiffres du projet de recherche NANDA financé par le MITont fait beaucoup réagir à leur publication en juillet dernier, en raison d’un chiffre en particulier : «Malgré un investissement de 30 à 40 milliards de dollars des entreprises dans l’IA générative, ce rapport met en lumière un résultat surprenant : plus de 95 % des organisations obtiennent zéro retour sur investissement ».
Nuançons tout de même : la méthodologie de ce rapport est fondée sur 153 questionnaires envoyés à des chefs d’entreprise, 52 entretiens et un corpus de 300 documents portant sur des annonces et des stratégies d’entreprise relatives à l’IA. Les auteurs ne disent pas qu’il n’y a pas de gains possibles de productivité, mais plutôt que la méthode actuelle d’adoption de ces outils est inadaptée, et ils soulignent que 90 % des entreprises savent que leurs employés font un usage régulier de robots conversationnels. Mais les gains de productivité, comme le disait Roberts, doivent être phénoménaux pour rattraper les investissements déjà réalisés. Brian Merchant, journaliste spécialisé dans le numérique, rappelle ainsi dans un billet de blog du 3 août 2025 :
« Dans le courant des six derniers mois, les dépenses en capital fixe pour l’IA – en ne comptant d’ailleurs que l’équipement de traitement de l’information et les logiciels – ont apporté davantage à la croissance de l’économie des États-Unis que la totalité des dépenses des consommateurs. »
Merchant s’avoue encore plus pessimiste pour l’avenir : selon lui, deux scénarios sont possibles. Soit un krach boursier encore plus grand que celui de l’an 2000 qui aurait des « conséquences cauchemardesques », ou bien une correction plus mesurée qui ferait disparaître les entreprises indépendantes au profit des monopoles du numérique déjà existants – ce qui rejoint l’hypothèse formulée par Daron Acemoglu. C’est la réaction à cette correction qui lui semble la plus inquiétante :
« Qui sait ? Il semble cependant de plus en plus probable qu’il n’y aura pas de correction du tout. (Je devrais aussi dire que je trouve improbable qu’un crash fasse simplement disparaître l’IA comme catégorie de produit, comme outil de surveillance et d’automatisation. C’est juste trop séduisant pour les entreprises, et en tant que produit, c’est un robot conversationnel qui a déjà des millions d’utilisateurs dépendants. Ce sont de nouveaux défis à relever).
Quand on voit où tout ça peut nous mener historiquement, la perspective d’une baisse de régime économique, qui nous pousserait vers une automatisation massive – couplée avec un gouvernement extrêmement favorable à la tech et au business, et mettant en place une stratégie d’oppression et de persécution de travailleurs manuels précaires et travailleurs qualifiés – eh bien, ça devrait nous mettre en alerte. »
Certains de ces effets sont effectivement déjà observables. Les chercheurs Vinit Ravishankar et Mostafa Abdou écrivaient le 7 juillet dernier dans la revue Jacobin que cette mise au pas des travailleurs était déjà visible chez les travailleurs de « l’économie de la connaissance » :
« Même si nous n’acceptions pas la notion fantasque d’Intelligence artificielle générale (une IA qui pourrait surpasser l’intelligence humaine), ou les annonces grandiloquentes d’une quatrième révolution industrielle, sous leur forme actuelle, les modèles d’IA générative sont capables d’aider les capitalistes à imposer une discipline salariale sur une large variété de travailleurs de la connaissance.
[…] Signe révélateur pour le secteur économique du numérique, le taux d’emploi des programmeurs aux États-Unis a chuté à son niveau le plus bas depuis les années 1980. […] L’aristocratie de l’économie de la connaissance, autrefois capable de négocier ses conditions de travail, est lentement en train d’être détrônée. »
Les attentes sont extraordinaires : Satya Nadella, le PDG de Microsoft, avait annoncé en février 2025 que selon lui, « le vrai repère c’est : une croissance mondiale à 10 % ». Nous en sommes très loin. Mais en même temps, l’usage de l’IA générative continue de progresser au détriment des travailleurs d’un grand nombre de secteurs. On peut donc craindre que la conséquence de cette bulle soit une intensification de l’usage de l’IA générative pour imposer une pression à la baisse sur les salaires, en même temps qu’une crise financière, voire économique, pourrait mettre fin à la croissance étasunienne.
Concluons notre propos par cette lettre ouverte publiée en juin dernier par un groupe d’enseignants-chercheurs néerlandais, expliquant que l’usage de modèles conversationnels dans les universités produisait un effet délétère sur la production et l’acquisition du savoir :
« Les modèles d’IA peuvent imiter l’apparence du travail académique, mais ils sont (par construction) indifférents à la vérité – le résultat étant un torrent d’“informations” non vérifiées, mais qui semblent convaincantes. Au mieux, ce résultat est accidentellement vrai, mais généralement dépourvu de citations, séparé du raisonnement humain et du réseau académique qu’il spolie. Au pire, c’est faux, mais c’est affirmé avec certitude. Les deux résultats sont dangereux pour l’écosystème [universitaire].
Les technologies d’“IA” survendues, comme les robots conversationnels, les modèles très larges de langage et les produits associés, ne sont pas autre chose : des produits que l’industrie de la technologie, exactement comme celles du tabac et du pétrole, cherche à vendre pour son profit, et ce en contradiction avec les valeurs de la soutenabilité écologique, la dignité humaine, les précautions pédagogiques, la protection de la vie privée, l’intégrité scientifique et la démocratie. Ces produits d’ “IA” sont matériellement et psychologiquement préjudiciables à la capacité de nos étudiants à écrire et penser par eux-mêmes, et n’existent que pour l’intérêt de leurs investisseurs et des compagnies multinationales. »
Il faut donc bien comprendre que l’IA générative n’est pas un outil à l’adoption neutre. Son utilité et sa capacité à « augmenter » les capacités des travailleurs, des utilisateurs ou encore des étudiants, sont de plus en plus contestées. En revanche, sa capacité de nuisance, qui aggrave les difficultés causées par les conditions sociales et psychologiques de leurs utilisateurs et les met en situation de dépendance, est bel et bien avérée.
Peut-être qu’il faut commencer à prendre au sérieux l’hypothèse que l’utilité réelle de ChatGPT ne se résume alors qu’à une technique de discipline et de perte d’autonomie au service des détenteurs du capital technologique.
Notes
(1) Une affirmation qui est peut-être nuancée par deux très récents papiers. Les auteurs du premieraffirment avoir trouvé une méthode pour prédire avec certitude ces « hallucinations » ; le secondprovient des équipes d’OpenAI qui pensent pouvoir les limiter.
(2) Déjà cité dans notre précédent article « L’idéologie TESCREAL : quand le « progrès » cache un élitisme réactionnaire dangereux » pour son travail sur le sujet.
(3) API, Application Programming Interface, accès par un client à un système informatique contrôlé par l’entreprise. Ici, Claude, le modèle conversationnel d’Anthropic, qui est mis à disposition pour interagir avec d’autres logiciels.
(4) Si le coût de l’entraînement est certes très élevé, il serait très discutable d’affirmer que cet argent profite vraiment à la main-d’œuvre chargée de l’annotation, contrairement aux plateformes et sous-traitants qui les emploient.
(5) Trop gros pour faire faillite.
(6) Les « Sept Magnifiques » représentent « 35 % de la valeur du marché financier américain », explique Robert. Il s’agit de NVIDIA, Microsoft, Alphabet (Google), Apple, Meta, Tesla et Amazon.