ChatGPT : « Le risque de manipulation de masse va exacerber la bataille de l’image entre géants du Web »
Tribune
Le robot conversationnel ne va pas se contenter de bouleverser l’économie d’Internet en menaçant le modèle publicitaire des géants du numérique, les Gafam, détaille l’économiste Vincent Lorphelin, dans une tribune au « Monde ».
Publié le 19 janvier 2023 à 20h00, modifié le 21 janvier 2023 à 08h28 Temps de Lecture 3 min.
ttps://www.lemonde.fr/idees/article/2023/01/19/chatgpt-le-risque-de-manipulation-de-masse-va-exacerber-la-bataille-de-l-image-entre-geants-du-web_6158563_3232.html
Nous avons pris l’habitude d’utiliser Google pour nous aiguiller vers les pages Web pertinentes. Pourquoi fouiller ces pages, et générer au passage des revenus publicitaires, si l’intelligence artificielle (IA) trouve directement la réponse à nos questions ? Nous utilisons Amazon pour une expérience d’achat documentée par des fiches de produit sponsorisées. Que deviendront-elles lorsque l’IA proposera immédiatement le produit idéal ? Nous utilisons Facebook ou Instagram pour être connectés à nos communautés. Que deviendra cet usage si les mises en relation et l’essentiel du contenu posté sont fabriqués par l’IA ? La nouvelle génération d’IA retire des raisons de passer du temps ou de naviguer sur le Web. Or, ce temps et ces clics sont monétisés, ce qui questionne le cœur même d’Internet : son modèle publicitaire.
Lire aussi : Article réservé à nos abonnés ChatGPT, le logiciel capable d’écrire des petits textes confondants
En réaction, les Gafam (Google, Apple, Facebook, Amazon, Microsoft) ne résisteront probablement pas à la tentation de remplacer la publicité par la manipulation. Le scandale de Cambridge Analytica a montré, dès 2014, qu’il était possible d’influencer le vote des électeurs en leur présentant individuellement des informations fabriquées. Depuis, le jeu Candy Crush a démontré qu’il était possible de créer suffisamment d’addiction pour faire payer la possibilité de continuer à jouer. Meta a annoncé pouvoir modifier ses algorithmes pour augmenter le bien-être de ses utilisateurs. La diffusion volontaire des infox a convaincu 1 Français sur 10 que la Terre est plate.
Désormais, une utilisation similaire de l’IA de nouvelle génération permettra de vendre au plus offrant non plus une audience mais un service d’apport direct de chiffre d’affaires, voire d’une quantité d’opinions favorables (ou défavorables) ! Effet collatéral, ce commerce de la manipulation se fera aux dépens de la capacité de jugement des consommateurs et des électeurs. Les eurodéputés s’étaient alarmés du danger que révélait Cambridge Analytica pour la démocratie. C’était à l’âge de pierre de l’IA. Aujourd’hui, l’industrialisation de la manipulation constitue un risque systémique, au même titre que le réchauffement climatique est un risque écosystémique.
Lire aussi : Article réservé à nos abonnés Au-delà de l’intelligence artificielle, le chatbot ChatGPT doit ses talents d’orateur à l’humain
Par ailleurs, les terrains commerciaux des Gafam ont commencé à se chevaucher. Amazon et Apple se sont invités récemment dans le marché publicitaire dominé par le duopole Meta-Google qui, en retour, se lance dans le commerce électronique. Microsoft veut étendre le Xbox Store au mobile face à Google Store et Apple Store. Après les services vidéo, musique, cloud et paiement vient le tour des métavers, dont les enjeux pourraient dépasser ceux du smartphone, voire d’Internet. Alors qu’Apple n’a pas encore annoncé de produit sur ce segment, Meta et Microsoft se sont d’ores et déjà ligués contre lui.
Sujet sensible
Ce nouveau jeu concurrentiel a révélé l’importance de l’image des Gafam. Dès 2019, Apple, en se faisant le héraut de la confidentialité des données, a montré que la défense d’enjeux de société pouvait apporter un bénéfice d’image aux dépens de ses concurrents. Depuis, pour des raisons d’image, les Gafam ont tour à tour supprimé la reconnaissance faciale, accepté une sanction pour pratique commerciale trompeuse afin d’éviter l’étiquette d’obsolescence programmée, renoncé à des commissions sur chiffre d’affaires d’applications au profit des petits développeurs, tout en organisant des campagnes de dénigrement de leurs concurrents.
Lire aussi : Article réservé à nos abonnés « L’intelligence artificielle fait bouger la frontière entre humain et non humain »Ajouter à vos sélections
Ajouter à vos sélections
Cette importance de l’image se mesure au succès des nouveaux produits et à la différence de salaire des ingénieurs entre entreprises. Lorsqu’elle est mauvaise, elle peut surtout attirer l’attention des régulateurs, qui utilisent les « affaires » pour justifier leur action. La menace de démantèlement des Gafam plane toujours aux Etats-Unis, mais devrait décroître avec l’accentuation de la concurrence qui les oppose. Côté européen, en revanche, le Digital Services Act est justement conçu pour parer les risques de l’IA. Mais le risque de manipulation de masse, qui ne manquera pas de provoquer les alertes dont se saisiront les régulateurs, va exacerber la bataille de l’image.
Les Gafam seront attentifs aux erreurs des IA à l’origine de ces alertes. Amazon a déjà fait les frais d’un algorithme de recrutement sexiste, qui reproduisait mécaniquement l’information ambiante et ses biais. Les nouveaux équivalents de Wikipédia, en cours de construction, sont fabriqués par des IA, mais des contributeurs humains interviennent pour juger du résultat. La qualité de l’information produite par l’IA va devenir aussi sensible que le respect des données privées et nécessitera une intervention humaine pour la gouverner. Après plusieurs années pendant lesquelles ils sont restés sourds aux revendications des propriétaires intellectuels, au premier rang desquels les éditeurs de presse, les Gafam devront finalement reconnaître avoir besoin de leurs estampilles.
Et aussi dans notre dossier : Article réservé à nos abonnés Intelligence artificielle : les multiples visages du deep learning
Selon toute vraisemblance, le modèle publicitaire d’Internet et le pillage de la propriété intellectuelle vont s’amenuiser. Les Gafam, dont les domaines d’action étaient historiquement séparés, vont se concurrencer et se livrer une âpre bataille d’image. ChatGPT a introduit un nouveau chapitre de l’économie numérique.
Vincent Lorphelin est coprésident de l’Institut de l’Iconomie et fondateur de Controv3rse, groupes de réflexion et d’études sur l’économie numérique.
ChatGPT : « Saluer l’avancée technologique, mais comprendre les limites de ce type de système »
Tribune
La spécialiste de l’éthique du numérique Laurence Devillers appelle, dans une tribune au « Monde », à cerner les défis éthiques posés par le robot conversationnel pour mieux en maîtriser l’usage.
Publié le 20 janvier 2023 à 06h00, modifié le 21 janvier 2023 à 08h26 Temps de Lecture 3 min. Read in English
Le grand public a découvert, fasciné, la puissance de ChatGPT, cet agent conversationnel développé par OpenAI, accessible gratuitement sur Internet depuis peu.
ChatGPT est un outil d’intelligence artificielle (IA) qui permet de tester les performances des plus récents modèles de génération de langage, appelés Transformers. ChatGPT peut être utilisé pour de nombreuses tâches : résumer un texte, répondre à des questions, créer ou corriger un programme informatique, faire un devoir, ou encore simuler une interaction avec une personne morte.
Tandis que chacun joue avec et relate avec fierté des expériences « décoiffantes », bien peu se préoccupent des aspects éthiques de ces boîtes noires. Bien évidemment, il faut saluer l’avancée technologique et la performance remarquable, mais il faut aussi comprendre les capacités et les limites de ce type de système.
Lire aussi : Article réservé à nos abonnés ChatGPT, le logiciel capable d’écrire des petits textes confondants
Qu’est-ce que ChatGPT a dans le ventre ? Des textes, qu’il a digérés grâce à des algorithmes… GPT-3 (Generative Pre-trained Transformer 3) est le modèle de langage de ChatGPT, une architecture de réseau de neurones de 175 milliards de paramètres qui utilise des représentations linguistiques préentraînées provenant d’énormes bases de données (Wikipédia, pages Web) pour produire des textes qui imitent le langage humain dans plusieurs langues. Par construction, le modèle n’a fait qu’enregistrer des informations sur les mots et parties de mots et leur contexte d’apparition.
Inonder le monde de « fake news »
ChatGPT est donc entraîné à donner, à partir d’une entrée textuelle, la séquence suivante des mots les plus probables – ce qui n’est pas réellement une réponse à une question ! Le modèle est évidemment assez souple pour ne pas toujours produire le même texte. ChatGPT utilise également un apprentissage par renforcement grâce à des formateurs humains qui ont classé plusieurs réponses alternatives. Le modèle est ainsi optimisé à partir d’interventions humaines.
ChatGPT est un système sociotechnique qui pèse sur un grand nombre de valeurs éthiques. Il peut imaginer des histoires inoffensives ou corrosives : on a vu fleurir des histoires de lapins… ou de conception d’armes.
Le danger le plus direct de ces systèmes est la possibilité d’inonder le monde de milliards de « fake news », puisque ChatGPT est capable d’inventions de texte de tout acabit, si l’on joue avec. Il pourrait ensuite être nourri avec ces nouvelles données artificielles collectées sur Internet.
Lire aussi : Article réservé à nos abonnés Au-delà de l’intelligence artificielle, le chatbot ChatGPT doit ses talents d’orateur à l’humain
On arriverait à une digestion rocambolesque d’opinions, de connaissances, de bibliographies peut-être fausses par les machines, amplifiant la désinformation sur Internet. Il est encore facile de prendre ChatGPT en défaut sur des questions très pointues, sur lesquelles il est incapable de raisonner et de démêler le vrai du faux. Mais il est nécessaire d’apprendre à remettre en cause les réponses du système. Interdire ChatGPT à l’école n’est peut-être pas la meilleure solution ; apprendre à l’utiliser est sûrement une clé pour accélérer notre compréhension de ces systèmes et garder notre libre arbitre.
On peut souligner la volonté des concepteurs de ne pas tomber dans l’anthropomorphisme des systèmes empathiques jouant sur les émotions : ChatGPT se positionne, en effet, clairement comme une machine. Mais il produit du texte sans en comprendre la teneur, et nous ne savons pas non plus comment il élabore ses réponses. Il peut être difficile de déterminer si le texte produit par ChatGPT a été écrit par un humain ou non, ce qui présente des risques. Les textes produits peuvent être excellents, mais aussi incohérents et totalement inventés.
Défis éthiques
ChatGPT pourrait devenir une nouvelle interface de recherche d’information sur Internet, ouvrant la porte à de nombreux défis éthiques. Devons-nous créer de nouveaux métiers, comme celui de « médecin éthicien » de l’IA, capable d’aider les entreprises à utiliser ces systèmes avec précaution en questionnant les enjeux éthiques lors de la création de nouvelles applications ? Ne faudrait-il pas également trouver des limitations d’usage, pour éviter les dérives, à travers des normes et standards ? Ces sujets sont à l’étude dans les centres de normalisation du Comité européen de normalisation en électronique et en électrotechnique (CEN-Cenelec).
Lire aussi : Article réservé à nos abonnés « L’intelligence artificielle fait bouger la frontière entre humain et non humain »
Pour l’instant, vous ne pouvez pas demander à ChatGPT des informations personnelles sur quelqu’un, ou bien écrire des questions contenant des mots clés sensibles, mais cela nécessite des évaluations par des tiers garants de pratiques éthiques. ChatGPT a la capacité de rejeter les demandes inappropriées (propos injurieux ou à teneur religieuse ou sexuelle) et ouvre la question éthique de la censure.Cours en ligne, cours du soir, ateliers : développez vos compétencesDécouvrir
ChatGPT a été conçu par une équipe restreinte et a été optimisé par une poignée d’annotateurs humains, mais il a déjà été testé par plus d’un million de personnes dès la semaine de lancement. N’y a-t-il pas là matière à la manipulation de masse ? Qui décide de censurer ? Une poignée de concepteurs ? Le système n’est pas transparent. Nous devons être conscients des dangers potentiels et trouver des solutions dans la recherche et la normalisation pour atténuer ces risques.
Et aussi dans notre dossier : Article réservé à nos abonnés Intelligence artificielle : les multiples visages du deep learning
La recherche s’est emparée de ce sujet avec le projet public-privé Bloom (BigScience Large Open-science Open-access Multilingual Language Model), qui a précisément pour but d’explorer les limites de ces grands modèles génératifs. Ce projet de science ouverte a rallié un millier de chercheurs et chercheuses grâce aux moyens du ministère français de l’enseignement supérieur et de la recherche, du grand équipement national de calcul intensif et du CNRS, et au supercalculateur Jean-Zay du CNRS à Orsay, l’équipement le plus puissant de France. Etre les cobayes de ChatGPT doit nous amener à prendre collectivement conscience des enjeux éthiques de l’IA !
Laurence Devillers est professeure en intelligence artificielle à Sorbonne Université (Laboratoire interdisciplinaire des sciences du numérique, LISN/CNRS) et membre du Comité national pilote d’éthique du numérique. Elle a notamment écrit Les Robots « émotionnels ». Santé, surveillance, sexualité… : et l’éthique dans tout ça ? (L’Observatoire, 2020).
Laurence Devillers(Chercheuse)
ChatGPT : « Plus que dans un capitalisme de surveillance, nous voici dans une administration de notre bien-être »
Tribune
Le philosophe Eric Sadin met en garde, dans une tribune au « Monde », contre le risque « civilisationnel » de voir s’installer un langage industrialisé, « prenant place et lieu » de la langue humaine.
Publié le 19 janvier 2023 à 22h00, modifié le 21 janvier 2023 à 08h27 Temps de Lecture 3 min.
La récente mise en ligne du « robot conversationnel » ChatGPT, développé par l’entreprise OpenAI, a aussitôt déclenché une avalanche de commentaires. Ce qui était le plus souvent relevé, c’est que le système, conçu pour répondre à des questions écrites, offre des réponses à la qualité syntaxique et à la cohérence « bluffantes ». Toutefois, ce constat se voyait nuancé par le fait que le résultat s’avère encore balbutiant ; nombre d’avancées seraient encore nécessaires pour qu’il s’apparente à un résultat produit par un humain. Or, c’est précisément là que réside notre grande illusion : celle de croire qu’il s’agit de dispositifs usant d’un langage semblable au nôtre.
Lire aussi : Article réservé à nos abonnés ChatGPT, le logiciel capable d’écrire des petits textes confondants
C’est la raison pour laquelle il faut aller voir quels sont les ressorts de ces technologies, loin des discours forgés par l’industrie du numérique, si souvent pris pour argent comptant. Ce qui caractérise ces énoncés, c’est qu’ils ne sont que la production d’algorithmes se nourrissant d’analyses statistiques, prenant alors leur unique source dans des registres déjà existants. Ils sont en cela sans rapport avec ce que suppose le langage dit « naturel ».
Car le propre du langage humain, c’est qu’il procède d’une tension entre un vaste lexique, fait de mots et de règles grammaticales, et notre capacité à générer des formules. Et cela, dans un rapport au temps qui n’est pas exclusivement attaché au passé, mais relève d’une dynamique conjuguée au présent et en constant devenir. Lorsque nous parlons ou que nous écrivons, nous ne cessons de puiser dans un océan phraséologique, tout en nous ajustant, de façon indéterminée, à un contexte chaque fois spécifique. Toute locution, écrite ou parlée, relève d’un jaillissement qui, invariablement, excède toute schématisation préalable.
Lire aussi : Article réservé à nos abonnés Au-delà de l’intelligence artificielle, le chatbot ChatGPT doit ses talents d’orateur à l’humain
Cette dimension est absente du verbe machinique, résultat de paramétrages ne faisant que répondre à des fonctionnalités déterminées, par exemple dans l’assistant personnel Siri (propriété d’Apple), qui nous dit « Que puis-je faire vous ? », ou dans les enceintes connectées telle Alexa (élaborée par Amazon), dont les seules visées consistent à orienter nos décisions à des fins principalement marchandes.
Double transformation
Plutôt que de nous demander naïvement si ces systèmes vont bientôt se substituer à nous dans la rédaction de textes – signe, alors, d’un renoncement définitif à l’usage de notre propre raison –, voit-on le modèle civilisationnel qui, à bas bruit, s’institue ? Celui procédant d’une double transformation de notre rapport au langage. D’une part, des intelligences artificielles, dites « génératives », dotées du pouvoir d’élocution, aux airs prétendument identiques au nôtre, se voient progressivement déléguer le soin de gérer nos rapports à autrui et nombre de nos tâches courantes – faculté qui, pourtant, conditionne notre droit à nous prononcer à la première personne et à nous conduire d’après notre jugement au sein d’une société libre et plurielle.
Lire aussi : Article réservé à nos abonnés « L’intelligence artificielle fait bouger la frontière entre humain et non humain »
D’autre part – et c’est là la visée principale – s’érigent des technologies nous prodiguant leur bonne parole, à la tonalité familière, intime, mais considérées comme supérieurement avisées, nous incitant à agir de telle manière plutôt que de telle autre, au sein d’un pseudo-dialogue instrumentalisé. Un modèle en vigueur depuis une quinzaine d’années, du fait des développements ininterrompus de l’intelligence artificielle
L’interprétation et la recommandation robotisées de nos gestes, pour notre plus grand confort supposé, prévalent dorénavant. Plus que dans un « capitalisme de surveillance », nous voici plus exactement dans une « administration de notre bien-être », tenant ces spectres numériques pour des entités hautement éclairées nous guidant jour et nuit sur le bon chemin.
« Qui parle ? »
Ces dispositifs sont en constante sophistication – notamment du fait du machine learning (procédés d’auto-apprentissage) –, appelés à revêtir des allures toujours plus naturelles. Il sera difficile de se détourner de leurs exhortations semblant provenir de consciences omniscientes. Un langage industrialisé, prenant place et lieu du nôtre et nous orientant en continu, deviendra un habitus, particulièrement auprès des jeunes générations qui y trouvent un usage aisé et allant de soi. Notre esprit, pourtant constitué pour être pleinement agissant, se laissera porter par ces systèmes atténuant peu à peu l’usage de nos facultés expressives.
Et aussi dans notre dossier : Article réservé à nos abonnés Intelligence artificielle : les multiples visages du deep learning
C’est dans une perspective à moyen et long terme qu’il faut évaluer l’étendue des conséquences de l’essor de ces technologies. Ces gigantesques bouleversements – à portée anthropologique – que nous vivons sans relâche depuis une vingtaine d’années sont avant tout le fait de l’industrie du numérique. Elon Musk est à l’origine d’OpenAI, aujourd’hui propriété de Microsoft, mais aussi d’entreprises fermement engagées dans ces champs de recherche.
« Qui parle ? », demandait Nietzsche. Sont-ce des programmes dont le langage, privé de sa dynamique vitale, véhicule une vision du monde fondée sur un réductionnisme et un utilitarisme généralisés ? Ou alors, tout à l’opposé, nos voix – chacune singulière, émanant de notre esprit et de notre sensibilité –, seules à même d’instaurer des liens actifs aux autres et au réel ?
Plus que jamais, l’heure est venue d’ériger la question de la langue, celle que nous voulons parler en notre nom et dans un ensemble vraiment commun, comme le premier enjeu moral, politique et civilisationnel de notre temps.
Eric Sadin est philosophe, spécialiste du monde numérique. Il a notamment écrit « L’Intelligence artificielle ou l’enjeu du siècle. Anatomie d’un antihumanisme radical » (L’Echappée, 2018).
Intelligence artificielle : « A chaque révolution industrielle a été proclamée la disparition du travail »
Tribune
Juan Sebastian CarbonellSociologue du travail
Le sociologue Juan Sebastian Carbonell dégonfle, dans une tribune au « Monde », le discours apocalyptique d’un remplacement des emplois par les machines, qui dissimule mal, selon lui, une crise du travail d’une tout autre nature.
Publié le 21 avril 2023 à 11h00, modifié le 23 avril 2023 à 06h01 Temps de Lecture 3 min.
C’est l’un des paradoxes actuel : au moment même où la question du travail redevient centrale en raison du mouvement social contre la réforme des retraites, on remarque un retour en force des discours sur la fin du travail. Futurologues, essayistes et journalistes se posent cette question : pourquoi se mobiliser contre le recul de deux ans de l’âge à la retraite, alors que l’intelligence artificielle (IA) va révolutionner le monde du travail ?
A en croire tribunes et prises de position, salariés et étudiants n’auraient pas compris où sont les vrais dangers du moment. Ils auraient même tort de manifester, car le recul de l’âge légal de départ à la retraite ne serait rien face aux dangers de l’intelligence artificielle ou de ChatGPT. On annonce alors la suppression de millions d’emplois sous les effets de l’IA et de ses avancées ; on parle d’une nouvelle révolution industrielle, de « désordres indescriptibles », d’un« bouleversement » sans précédent de la structure de l’emploi. Rien de moins.
Ces discours technofatalistes et apocalyptiques n’ont rien de nouveau. Après tout, à chaque révolution industrielle a été proclamée la disparition du travail et a été opposé le « progrès technologique » au bien-être des travailleurs et des populations, même si jamais de telles prédictions ne se sont confirmées.
Lire aussi : Article réservé à nos abonnés « Avec ChatGPT et l’irruption de l’intelligence artificielle, la question de la raréfaction du travail et de l’avenir des retraites est relancée »
Mais d’où viennent ces discours ? D’abord, d’entrepreneurs du secteur du numérique qui cherchent à faire parler de leurs services et à attirer des financements. C’est ce qui explique que les discours sur les révolutions technologiques sont hyperboliques et exagérément optimistes. Ce n’est donc pas un hasard si, après l’engouement autour de ChatGPT en début d’année, Microsoft a décidé d’investir 10 milliards de dollars (9,1 milliards d’euros) dans OpenAI, entreprise propriétaire du robot conversationnel.
Davantage de précarité
Ensuite, de cabinets de conseil qui font leur miel de cette panique sur la fin du travail, vendant des « solutions IA » à des entreprises qui ne veulent pas être à la traîne sur un sujet présenté comme révolutionnaire dans les médias. Enfin, de « futurologues » et d’experts autoproclamés pour qui il s’agit de faire parler de leurs livres, d’être invités dans les médias et à donner des conférences.
Les discours enthousiastes sur les nouvelles technologies ont une fonction : ils contribuent à leur acceptation, au-delà de leurs conséquences sociales ou politiques, et deviennent une sorte de prophétie autoréalisatrice. La croyance en une révolution technologique favorise l’allocation de ressources supplémentaires pour le développement de ces technologies et leur introduction sur les lieux de travail, renforçant à son tour l’idée d’une révolution technologique. A chaque fois, il s’agit de nous faire croire que le changement technologique est inévitable, que s’y opposer n’a aucun sens et que tous les autres sujets sont secondaires.
Lire aussi : Article réservé à nos abonnés ChatGPT : « Jusqu’à présent, l’IA promettait de nous confisquer nos métiers ; va-t-elle aussi nous priver de l’art de nous raconter ? »
Pourtant, ces prises de position révèlent en réalité une profonde incompréhension du changement technologique en général et de l’IA en particulier. Car même s’il s’agit de modes, ces discours ont des effets bien réels sur le monde du travail, parce qu’ils favorisent la diffusion et l’adoption de nouvelles technologies.
Qu’en est-il réellement ? Comme le disent les chercheurs du Digital Platform Labor (DiPLab) autour d’Antonio Casilli et de Paola Tubaro, ChatGPT ne va pas faire disparaître le travail, mais le précariser davantage. On s’extasie devant ce logiciel conversationnel, le voyant comme un outil qui fonctionnerait de façon magique, mais le magazine Time a révélé que des « microtravailleurs » kenyans sont payés moins de 3 euros de l’heure pour corriger ChatGPT. Comme le rappellent ces chercheurs, l’IA ne détruit pas des emplois, elle en crée, mais c’est souvent pour accomplir un travail d’entraînement et de vérification des données numériques, lui-même parcellisé à l’extrême et mal payé.
Manœuvre de diversion
On voit ailleurs les effets de l’introduction de l’IA au travail, notamment dans le « management algorithmique », lorsque des algorithmes assument des fonctions d’encadrement en entreprise comme dicter aux salariés ce qu’il faut faire, dans quel ordre et à quel rythme, ou encore les évaluer. Ce mode de gestion de la main-d’œuvre, qui est né et s’est développé au sein des plates-formes numériques comme Uber ou Deliveroo, s’est ensuite répandu dans d’autres secteurs d’activité, tels la logistique, le commerce, etc. On est loin de la révolution technologique promise, mais face à un outil de contrôle et de surveillance entre les mains des plates-formes numériques.
Lire aussi : Article réservé à nos abonnés Dans les entreprises, l’essor du management par les algorithmes
Peut-être que ces discours sur l’IA et sur les prétendus bouleversements à venir sont finalement une diversion, dont le but est de ne pas parler des questions qui fâchent, aujourd’hui au cœur du mouvement contre la réforme des retraites : les salaires, les conditions de travail et le sens du travail. C’est peut-être parce que l’avenir du travail ressemble de moins en moins aux utopies futuristes qu’on nous avait promises mais de plus en plus au passé d’exploitation et de domination qu’autant de personnes descendent aujourd’hui dans la rue.
Lire aussi : ChatGPT et Midjourney font évoluer vos pratiques professionnelles ? Racontez-nous
Juan Sebastian Carbonell est sociologue du travail, postdoctorant à l’Ecole normale supérieure Paris-Saclay et auteur du Futur du travail (Editions Amsterdam, 2022)
Qui a peur de l’intelligence artificielle ?
Le succès de ChatGPT et de ses avatars a rallumé les craintes liées à l’intelligence artificielle : aggravation de la fracture numérique, suppression des emplois de « cols blancs », robotisation de la création.
- « A chaque révolution industrielle a été proclamée la disparition du travail », par Juan Sebastian Carbonell, sociologue du travail et postdoctorant à l’Ecole normale supérieure Paris-Saclay
- « L’intelligence artificielle pourrait accroître l’écart de pénibilité entre les travailleurs », par Yannis-Zaccharie Bekhti, consultant en politiques publiques pour l’Afrique et le Moyen-Orient
- « Il est urgent de reprendre le contrôle de l’intelligence artificielle, qui recèle de quoi provoquer des désordres sociaux sans précédent », par Hugues Bersini, directeur du laboratoire d’intelligence artificielle de l’Université libre de Bruxelles et membre de l’Académie royale de Belgique
- « ChatGPT aggrave considérablement la fracture numérique », par Raphaël Maurel, secrétaire général de l’Observatoire de l’éthique publique et maître de conférences en droit public à l’université de Bourgogne
Juan Sebastian Carbonell(Sociologue du travail)
Intelligence artificielle : « ChatGPT aggrave considérablement la fracture numérique »
Tribune
Au-delà de l’enjeu, déjà connu, de la fiabilité des contenus, le juriste Raphaël Maurel s’inquiète, dans une tribune au « Monde », autant de l’empreinte environnementale de l’IA générative et que de l’inégalité d’accès à ChatGPT.
Publié le 21 avril 2023 à 14h00, modifié le 21 avril 2023 à 16h31 Temps de Lecture 3 min.
Lancé par l’entreprise OpenAI fin 2022, ChatGPT, l’intelligence artificielle (IA) « générative » capable de soutenir une conversation en ligne, comptait déjà plus de 100 millions d’utilisateurs au début de cette année. Ce chiffre ne devrait faire qu’augmenter, malgré la mise en service d’une version améliorée payante, moins attractive pour le grand public, en mars.
Lire aussi : Article réservé à nos abonnés ChatGPT, le logiciel capable d’écrire des petits textes confondants
Au-delà du sujet classique de l’adaptation du marché du travail et des services publics – notamment universitaire – à une nouvelle technologie, ChatGPT et ses concurrents sont et seront certainement à l’origine d’un nouvel avatar de l’« infobésité », causé par la génération incessante de contenus de qualité variable et non nécessairement informatifs. Ce n’est pas le seul risque des IA génératives, qui soulèvent au moins trois enjeux majeurs dont les pouvoirs publics doivent ou devront rapidement se saisir.
Le premier enjeu est de loin le plus connu : comment encadrer les dérives de l’IA générative ? Après la tragique expérience de Tay, l’IA conversationnelle de Microsoft devenue négationniste après seulement huit heures passées sur Twitter en 2016, on a d’abord craint une intelligence incontrôlable. Force est de constater que ChatGPT ne l’est pas : l’une de ses limites volontairement appliquées est d’ailleurs son absence de connexion à Internet.
En avril, une faille est cependant trouvée : ChatGPT soulève de sérieuses questions de protection des données personnelles. Après une première action devant le régulateur italien qui a donné lieu à un accord entre OpenAI et l’autorité italienne, plusieurs plaintes sont en cours d’examen en France devant la Commission nationale de l’informatique et des libertés, pour violation du règlement général sur la protection des données personnelles.
Lire aussi : Données personnelles : l’Italie ouvre une procédure contre ChatGPTAjouter
En cause, le caractère hasardeux des réponses générées par l’IA, capable de créer des contenus parfaitement faux et d’assurer qu’ils sont corrects sans pouvoir fournir aucune source. Sont en particulier visés l’exercice du droit à l’exactitude des données personnelles fournies par ChatGPT, l’information quant à l’utilisation précise des données personnelles des utilisateurs de l’IA générative et leur corollaire : le droit à la rectification des données personnelles erronées que ChatGPT utilise ou génère. Une fois soldés ces contentieux, qui seront certainement riches en rebondissements, il est permis de penser que la société OpenAI s’adaptera au droit de l’Union européenne (UE) et que ce sujet n’en sera plus un.
Ethique des affaires
Le deuxième enjeu est celui de la place des entreprises du secteur de l’IA dans notre société. Dans nos Etats libéraux, il n’y a pas de difficulté à admettre que des start-up d’IA composées de quelques personnes seulement puissent lever des centaines de millions d’euros en quelques semaines et s’affrontent à un rythme effréné dans un environnement concurrentiel globalement encadré. Mais l’éthique des affaires commande aujourd’hui une certaine vigilance de toutes les entreprises multinationales quant au respect des droits humains et de l’impact environnemental de leurs activités. Si l’empreinte carbone de l’IA n’est pas encore pleinement mesurée, le sujet ne doit pas être minimisé, d’autant que la valeur produite par le secteur est exponentielle.
Lire aussi : Article réservé à nos abonnés Dans le sillage de ChatGPT, la course à l’intelligence artificielle
Il est dès lors préoccupant que le projet de directive européenne sur la vigilance des entreprises en matière de durabilité, en discussion depuis 2022, exonère de facto les start-up européennes du numérique de toute obligation en la matière. En effet, seules seront concernées par le devoir de vigilance européen les entreprises de plus de 500 salariés réalisant plus de 150 millions d’euros de chiffre d’affaires.
En revanche, les entreprises étrangères y seront soumises dès 150 millions d’euros de chiffre d’affaires réalisé dans l’UE sans condition de nombre de salariés, ce qui privilégiera logiquement le développement de sociétés européennes dans le domaine. Il est regrettable que les start-up d’IA européennes, qui vont poursuivre leur prolifération, n’y soient pas soumises. Au minimum, il conviendrait que le secteur du numérique soit intégré dans les « domaines à fort impact » visés par la directive, pour lesquels le seuil d’application de la vigilance est abaissé à 250 salariés et 40 millions d’euros : le Parlement européen pourrait œuvrer en ce sens.
Du ravin à l’océan
Le troisième enjeu, moins visible dans le débat public malgré son évidence, est le plus important : la fracture numérique, que ChatGPT aggrave considérablement. D’après l’Insee, l’illectronisme, c’est-à-dire l’absence d’utilisation d’Internet ou la difficulté à utiliser les outils numériques au quotidien, touche entre 15 % et 17 % des Français. Même si ChatGPT est l’application qui a connu la croissance la plus rapide de l’histoire, la grande majorité des utilisateurs des outils numériques ne l’utilise pas, par incompréhension de l’outil ou absence d’intérêt. Il est même douteux que la majorité des utilisateurs français de l’IA générative, dont le nombre exact n’est pas connu, sache l’utiliser au mieux de ses capacités, c’est-à-dire soit en mesure de guider ChatGPT vers les objectifs recherchés.
Lire aussi : Les jeunes Français, victimes insoupçonnées de la précarité numérique
Le ravin qui séparait déjà les utilisateurs quotidiens d’Internet des citoyens peu ou pas connectés se transforme en océan, que ces derniers ne pourront jamais traverser. Si des outils de formation initiale et continue à l’utilisation de l’IA ne sont pas rapidement mis en place, l’écart se creusera encore davantage entre les utilisateurs moyens d’Internet et ceux qui maîtrisent les enjeux et usages de ces outils.
L’enjeu dépasse le sujet technique : il est démocratique et même civilisationnel, les capacités de désinformation et de manipulation des masses se trouvant elles aussi démultipliées. Gageons que le gouvernement saura réagir avec la célérité qui s’impose.
Raphaël Maurel est secrétaire général de l’Observatoire de l’éthique publique et maître de conférences en droit public à l’université de Bourgogne.
« L’intelligence artificielle pourrait accroître l’écart de pénibilité entre les travailleurs »
Tribune
Yannis-Zaccharie BekhtiConsultant
Le consultant Yannis Bekhti avertit, dans une tribune au « Monde », que l’irruption de l’IA sur le marché du travail n’aura pas le même impact pour les cols blancs que pour les cols bleus.
Publié le 21 avril 2023 à 13h00, modifié le 24 avril 2023 à 10h57 Temps de Lecture 3 min.
Le 30 novembre 2022, OpenAI inaugurait la révolution ChatGPT, application conversationnelle adossée à un modèle d’intelligence artificielle générative. D’abord gratuite, puis enrichie d’une version payante et augmentée, cette solution se veut capable d’interpréter des questions, appelées « prompts », et de proposer des réponses argumentées.
Dans le même temps, nos députés et sénateurs discutaient, en des termes parfois un peu caricaturaux, d’une réforme des retraites purement comptable, illustrant la faible capacité des responsables politiques à penser la question du travail sous l’angle des profondes mutations qui sont à venir. Parmi les nombreuses évolutions technologiques imminentes (robotisation, numérisation, automatisation, etc.), en effet, l’intelligence artificielle (IA) sera sans doute l’une des plus décisives et structurantes pour les emplois futurs.
L’IA aura notamment un effet considérable sur la pénibilité au travail : elle diminuera celle pour les cols blancs, mais elle n’aura pas le même impact positif pour les cols bleus. Cette révolution technologique qui se déroule sous nos yeux pourrait accroître l’écart de pénibilité entre les travailleurs.
La révolution occasionnée par l’IA aujourd’hui est analogue à celle que le taylorisme, qualifié d’organisation scientifique du travail, a engendrée au début du XXe siècle en généralisant la division du travail, tant horizontalement (division des tâches) que verticalement (hiérarchisation des tâches).
Lire aussi : Article réservé à nos abonnés ChatGPT, le logiciel capable d’écrire des petits textes confondants
Aujourd’hui, les solutions d’IA permettent d’approfondir la division horizontale du travail. La future « organisation automatique » du travail permettra vraisemblablement à l’homme de se concentrer sur les activités sur lesquelles la machine est la moins efficace et pertinente, comme la création ou la prise de décision.
Le rasoir de la logique
Il semble cependant que tous les travailleurs ne soient pas égaux face à cette révolution. Une étude du cabinet McKinsey a évalué que les travailleurs diplômés seront cinq fois plus exposés aux solutions d’IA que les travailleurs non diplômés. La dernière étude d’OpenAI confirme une plus grande exposition à l’IA des emplois dont les salaires sont plus élevés.
Certains cabinets d’avocats ont déjà intégré ce type de technologie. Allen & Overy, par exemple, a annoncé le déploiement d’Harvey, un outil permettant d’automatiser certaines activités juridiques telles que l’analyse de contrats, les vérifications de conformité ou le contentieux, et ainsi de décharger les avocats des activités les plus laborieuses ayant le moins de valeur ajoutée industrielle, et même intellectuelle.
Lire aussi : Article réservé à nos abonnés « Avec ChatGPT et l’irruption de l’intelligence artificielle, la question de la raréfaction du travail et de l’avenir des retraites est relancée
L’effet de l’IA sera positif pour ces nombreux cols blancs qui verront la pénibilité de leurs emplois diminuer à mesure que les tâches répétitives seront automatisées, et les possibilités de création et d’invention augmentées. Ces professions intellectuelles pourront être débarrassées de certaines aberrations du processus managérial, et peut-être pourrions-nous espérer qu’à terme les emplois « à la con » disparaissent sous le rasoir de la logique et de l’efficacité, que le temps libre et créatif augmente pour ces travailleurs à mesure que les solutions d’IA se diffusent.
Concentrée sur les professions intellectuelles, la révolution de l’IA risque d’exclure tous les secteurs gourmands en main-d’œuvre ou en relations humaines, à la fois pour des raisons techniques et financières – à moins d’un volontarisme politique particulier. Les travailleurs agricoles, les mécaniciens, les ouvriers du bâtiment, les auxiliaires de vie, par exemple, ne bénéficieront sans doute pas des mêmes dividendes de la généralisation de ces outils technologiques.
Lire aussi : Article réservé à nos abonnés « Un monde sans travail » : quand le chômage technologique arrivera…
Le secteur du bâtiment n’a connu que peu d’évolutions fondamentales liées aux nouvelles technologies ces dernières années, principalement parce que les investissements associés sont lourds et que leurs bénéfices sont encore incertains. Pour la majorité des décideurs du secteur, ces investissements restent ainsi concentrés sur les seules activités de conception.
Investissements sociaux
Les métiers du soin sont également exclus de la révolution de l’IA. D’une part parce que la relation interpersonnelle avec le soignant, elle-même vectrice de soin, est essentielle, d’autre part en raison du coût de tels investissements. Pis, l’IA pourrait augmenter la pénibilité pour ces métiers intensifs en travail et en relations humaines. Les modèles prédictifs, en fixant des objectifs croissants de manière tendancielle et systématique, étendraient le contrôle sur les gestes et processus des travailleurs, au risque d’un accroissement de la pénibilité et du stress dans ces professions.
Lire aussi : Article réservé à nos abonnés « L’intelligence artificielle peut contribuer à une aliénation très insidieuse »
La perspective de réduction de la pénibilité pour de nombreux emplois de cols blancs permet d’envisager tout à fait raisonnablement une extension de leur durée du travail. L’horizon de 64 ans offre même la possibilité d’expérimenter de nombreuses vies, et même de s’offrir une certaine liberté. Mais, en revanche, pour ceux qui ne bénéficieront pas de ces gains, la réforme actuelle est d’autant plus injuste et brutale qu’elle n’est pas ancrée dans une réflexion sur les évolutions du travail.
Or, sans une réflexion profonde sur le travail de tous les Français, cette réforme n’est que la promesse d’un accroissement supplémentaire des inégalités. Dès lors, les pouvoirs publics doivent, d’une part, diffuser les bénéfices de la technologie, y compris dans les secteurs les plus intensifs en travail et en relations humaines, où le retour sur investissement est le plus faible, et compenser cette faiblesse par des investissements sociaux ; d’autre part, analyser et modéliser les effets des propositions de réforme du travail dans un contexte où les solutions d’IA seraient largement démocratisées auprès de nombreux travailleurs.
Lire aussi : ChatGPT et Midjourney font évoluer vos pratiques professionnelles ? Racontez-nous
Yannis-Zaccharie Bekhti est consultant en politiques publiques pour l’Afrique et le Moyen-Orient
« Il est urgent de reprendre le contrôle de l’intelligence artificielle, qui recèle de quoi provoquer des désordres sociaux sans précédent »
Tribune
Le chercheur en IA Hugues Bersini s’inquiète, dans une tribune au « Monde », de voir de « monstrueux perroquets logiciels » prétendre s’affranchir de toute humanité.
Publié le 21 avril 2023 à 12h00, modifié le 21 avril 2023 à 16h30 Temps de Lecture 3 min.
L’intelligence artificielle (IA) n’a nulle vocation à dire le vrai, à produire le beau ou à faire le bien. Démarrons par le « vrai ». Ce fameux ChatGPT, que n’a-t-on pas dit à son sujet ? Il est clair que Wikipédia joue un rôle très important parmi les nombreux corpus textuels dont cette IA apprenante s’est nourrie, et qui lui permet, entre autres, de produire des textes d’une excellente syntaxe et qui font très souvent mouche sur le plan sémantique.
Lire aussi : Article réservé à nos abonnés ChatGPT, le logiciel capable d’écrire des petits textes confondants
La plate-forme Wikipédia, sous-tendue par une algorithmique formidable, car plus soucieuse de faire collaborer les hommes que de les dresser les uns contre les autres, les scotcher à l’écran, les déprimer ou les enfermer dans une bulle informationnelle, nous en dit beaucoup sur la difficulté de parvenir au vrai. Il s’agit d’une progression lente, parfois laborieuse, par à-coups, en tension, instable, toujours en devenir, à la jonction de multiples opinions, mais qui graduellement convergent et se stabilisent sur ce qu’on finira par accepter comme vrai, pour l’instant.
Rien à voir avec ChatGPT qui, sans l’aval, sans l’autorisation ni l’accompagnement du moindre humain, vole à l’arraché Wikipédia, lui dérobe des pans entiers de textes, et les mêle à d’autres, au tout-venant. Or, en quoi la combinaison statistique de textes aspirant difficilement et graduellement au vrai nous garantit la continuité de cette aspiration ? La syntaxe, oui d’accord, même si plus aucune règle explicite ne le garantisse vraiment (au grand désespoir de Noam Chomsky), la sémantique aussi, sans surprise. Mais le vrai ? De surcroît, les auteurs originaux de ces mêmes pages se retrouvent scandaleusement enfouis et anonymisés dans ce cocktail infâme, cette masse textuelle informe et son illusion du vrai.
Evaluation subjective
Ensuite, le « beau ». Paul McCartney raconte comment, en s’inspirant de Bach, il compose le formidable Blackbird. L’IA aujourd’hui se nourrit de morceaux des Beatles jusqu’à l’indigestion pour produire du simili Beatles, sans âme, sans inspiration et sans récit. On produit du Rembrandt à partir de Rembrandt, du Picasso à partir de Picasso, mais Picasso lui-même produit du Picasso car, à l’origine, il est fasciné et inspiré par Rembrandt, Velazquez et d’autres, d’une manière parfaitement non reproductible par une IA. Brancusi, en colère, sculpte un baiser primitif en réaction au maniérisme et à la grandiloquence de son maître Rodin, un baiser qui n’a rien et pourtant tout à voir avec le baiser du maître.
Lire aussi : Article réservé à nos abonnés ChatGPT : « Tout se passe désormais comme si créer une œuvre consistait à assembler des extraits d’œuvres antérieures »
Le génie créatif est là, hors des sentiers battus, dans cette révolte, ce ressenti émotif, dans ce vécu et ce rapport au monde, cette réaction aux autres, à ceux qui précèdent. Une IA, sans une main humaine ferme pour la guider, la programmer, ne pourra jamais prétendre au statut d’artiste. Reste non programmable dans une machine ce processus d’évaluation subjective permettant de guider et surtout de sélectionner entre le foisonnement d’agencements symboliques possibles celui qui, entrant en résonance avec l’âme de l’artiste, accroît par son narratif ses chances d’en faire autant avec celle du public.
Et, finalement, le « bien ». Evidemment, c’est la même IA qui permet d’améliorer le diagnostic des radiologies de tumeur (en souhaitant qu’un docteur humain soit toujours là pour en informer, avec humanité, le patient), qui permet aussi d’identifier un possible terroriste (avec un taux négligeable de faux positifs collatéraux) et d’inciter le pilote du drone à l’éliminer (demain, il ne sera plus nécessaire). C’est la même IA qui permet de comprendre et de déjouer les pièges des hackeurs et, tout autant, d’imiter à la perfection la voix de votre enfant, actuellement en voyage, et vous implorant de lui verser une somme importante car détenu dans une prison exotique.
Paradoxe de l’évolution
C’est le même ChatGPT qui facilite l’accès à quelques savoirs, vous fait gagner du temps dans la rédaction de phrases sans importance, des tics de langage, mais permet aussi à quiconque de s’improviser cyberterroriste en lui demandant les lignes de code d’un logiciel terriblement nuisible. Ce logiciel, livré à lui-même, n’a pas la moindre idée de la finalité de son usage. Le programmeur oui, en théorie… en tout cas, jusqu’à présent. Dès lors, il est urgent de reprendre le contrôle de toutes ces lignes de codes, dont les effets et non les sources s’avèrent aisément accessibles, et qui recèlent de quoi provoquer des désordres sociaux sans précédent.
L’immense paradoxe de l’évolution de l’IA de ces dernières années – en substance, l’importance prise par l’apprentissage à partir de multiples productions humaines existantes, ou par essais et erreurs, et l’incompréhension du résultat par les concepteurs mêmes – s’avère cette volonté assumée et délibérée de s’affranchir de toute autorité humaine : AlphaGo sans joueur de go, l’apprentissage profond pour la reconnaissance d’images sans apport préalable de l’ingénieur à l’extraction des caractéristiques les plus parlantes, les réseaux de neurones pour remplacer les linguistes, etc.
Une absence compensée en partie par une puissance de calcul jamais atteinte pour engouffrer les masses de données disséminées sur le Web. S’affranchir fièrement de l’humain lors de la conception, le mettre hors course, alors même que tout appelle aujourd’hui à redonner beaucoup plus d’humanité dans le fonctionnement et les productions de ces monstrueux perroquets logiciels, là est tout le paradoxe.
Hugues Bersini est directeur du laboratoire d’intelligence artificielle de l’Université libre de Bruxelles et membre de l’Académie royale de Belgique.
« Le projet de régulation de l’intelligence artificielle de l’UE ne semble pas être à la hauteur des risques que représente la percée d’outils comme ChatGPT »
Tribune
Charles CuvelliezExpert informatiqueJean-Jacques QuisquaterExpert informatiqueStéphane van RoyExpert informatique
Les experts de la sécurité informatique Charles Cuvelliez, Jean-Jacques Quisquater et Stéphane van Roy constatent, dans une tribune au « Monde », que l’Artificial Intelligence Act de l’Union européenne semble déjà démuni devant l’irruption du robot conversationnel.
Publié le 19 janvier 2023 à 06h00, modifié le 21 janvier 2023 à 08h30 Temps de Lecture 3 min.
Pour d’aucuns, ChatGPT est devenu la première forme d’intelligence artificielle (IA) universelle. On peut tout lui demander, simplement, via une question qu’on poserait à un expert (humain) du domaine abordé, s’il était en face de nous. Il vous répondra comme lui. Pour d’autres, c’est une combinaison heureuse de deux algorithmes d’IA qui ont fait leurs preuves : les robots conversationnels (chat) combinés à une accumulation de tout le contenu du Web jusqu’en 2021. Alors, forcément, à toute question posée, il se trouvera bien quelque part dans le Web un contenu qui donne la matière à répondre, réarrangée sous forme d’une conversation.
Lire aussi : Article réservé à nos abonnés ChatGPT, le logiciel capable d’écrire des petits textes confondants
A l’inverse de l’expert, ChatGPT ne comprend pas le sens de ce qu’il vous raconte : posez-lui une question polémique et, pour peu que, sur ce domaine, les concepteurs aient moins prêté attention à son entraînement en lui apprenant à rejeter le faux, vous vous retrouverez face à un menteur qui vous répond avec l’assurance d’un imposteur psychopathe. D’une fois à l’autre, il peut répondre tout et son contraire.
C’est parce qu’il ne comprend pas ce qu’il dit que ChatGPT est dangereux. ChatGPT pourrait gonfler le contenu incorrect qu’il capte sur Internet pour peu que ses réponses soient réinjectées comme contenu légitime sur le Web par ses utilisateurs. Quel magnifique empoisonnement d’Internet, à portée de main des complotistes de tout poil !
Le Web déserté ?
Mais il peut aussi détruire le modèle de Google : pourquoi perdre son temps en recherches pour répondre à une question si ChatGPT a déjà la solution ? Il se murmure d’ailleurs que Bing, concurrent du moteur de recherche de Google, va très vite combiner ChatGPT à son outil de recherche. C’est alors l’idée même du Web qui en prend un coup, si ChatGPT se généralise : pourquoi encore accéder au Web si un intermédiaire a déjà tout visité avant vous pour répondre à toutes vos questions ? Le Web est-il voué à devenir un désert ?
Lire aussi : Article réservé à nos abonnés Au-delà de l’intelligence artificielle, le chatbot ChatGPT doit ses talents d’orateur à l’humain
Or, le projet de régulation de l’IA porté par la Commission (Artificial Intelligence Act) ne semble pas être à la hauteur des risques que représente la percée d’outils comme ChatGPT. Cette régulation classe en effet toutes les applications d’IA en plusieurs catégories selon le niveau de dangerosité.
Il y a d’abord l’IA « prohibée », celle qui déploie des techniques subliminales en dehors de la conscience même de la personne qui en est l’objet. Elle peut lui occasionner un dommage psychologique ou physique. L’IA prohibée est aussi celle qui exploite la vulnérabilité d’un groupe de personnes du fait de leur âge, de leur santé physique ou mentale, ou qui influence son comportement. C’est aussi l’IA qui attribue un score social et conduit à un traitement différencié. Tout ce qui est reconnaissance biométrique dans les espaces publics fera aussi partie de l’IA interdite, sauf s’il s’agit de chercher des victimes de crimes ou des enfants disparus, s’il s’agit de prévenir un danger imminent et substantiel pour la vie ou la santé physique des personnes, ou d’une attaque terroriste, et s’il s’agit de détecter, localiser, identifier ou poursuivre un criminel.
Lire aussi : Article réservé à nos abonnés « L’intelligence artificielle fait bouger la frontière entre humain et non humain »
Il y a ensuite l’IA « à haut risque », qui peut avoir un impact dommageable sur la santé, la sécurité ou les droits fondamentaux. On trouvera cette IA dans des composants de produits ou de machines (on pense à celles qui pourraient acquérir une certaine autonomie), ou dans une IA (mal) utilisée en finance (lorsqu’il faut décider ou non d’accorder un prêt) ou dans les infrastructures critiques comme l’eau, les transports, le gaz, l’électricité ou l’éducation (lorsqu’il s’agit d’évaluer les étudiants).
Conception obscure
Pour ces IA à haut risque, il faut, dit le projet de régulation, une évaluation, une grande qualité des données pour alimenter le système, une documentation technique détaillée, l’enregistrement de l’activité pour garantir la traçabilité de ce qui s’est passé, une information claire et adéquate fournie à l’utilisateur, une supervision humaine et une grande robustesse contre les attaques cyber, les erreurs, les défauts d’inconsistance et les tentatives des tiers d’en altérer l’usage. Ces précautions seraient justement les bienvenues pour ChatGPT, qui brille par l’obscurité de sa conception. On se demande par exemple pourquoi ChatGPT ne renseigne pas les liens des sites desquels provient le contenu de sa réponse, tout comme un bon scientifique citerait ses sources, comme le fait d’ailleurs son concurrent moins connu, le site Andi.
Et aussi dans notre dossier : Article réservé à nos abonnés Intelligence artificielle : les multiples visages du deep learning
Avec la régulation européenne, ChatGPT ne tomberait que dans la dernière catégorie d’IA à risque, dite « à risque limité » : celle qui interagit avec les humains. Ceux-ci doivent alors, au titre de la régulation, être simplement prévenus de l’utilisation d’une IA, sans plus de précision. Mais est-ce suffisant pour développer un esprit critique envers une nouvelle manière d’accéder à de la connaissance ?
Seule consolation, la régulation de l’Union européenne [UE] s’appliquerait à ChatGPT bien que l’application ait été développée hors de son territoire, car elle s’applique dès lors qu’elle touche un citoyen de l’UE, et concerne toute la chaîne de valeur : non seulement le concepteur, OpenAI, mais aussi l’importateur, le distributeur, le fournisseur et l’utilisateur. Pour y échapper, ChatGPT devrait rendre son site inaccessible en Europe.
Charles Cuvelliez est professeur en gestion du risque à l’Ecole polytechnique de Bruxelles ; Jean-Jacques Quisquater est expert en cryptographie à l’Ecole polytechnique de Louvain et au MIT ; Stéphane van Roy est chargé des risques opérationnels à la banque Belfius.
Charles Cuvelliez(Expert informatique), Jean-Jacques Quisquater(Expert informatique) et Stéphane van Roy(Expert informatique)