« Les développements à venir de l’intelligence artificielle nécessitent une réflexion forte sur les limites à imposer »
L’informaticien et philosophe Jean-Gabriel Ganascia estime que les Etats doivent se saisir de ces questions et prendre leurs responsabilités, afin de ne pas s’en remettre uniquement aux acteurs privés.
Propos recueillis par Laure Belot Publié le 24 octobre 2020 à 18h30 – Mis à jour le 27 octobre 2020 à 09h51

Professeur au Laboratoire informatique de Sorbonne Université (LIP6), Jean-Gabriel Ganascia préside le comité d’éthique du CNRS et est l’auteur de nombreux ouvrages autour de l’intelligence artificielle (IA), tel Le Mythe de la Singularité. Faut-il craindre l’intelligence artificielle ? (Seuil, 2017).
Elon Musk a présenté, le 28 août, les recherches de sa société Neuralink visant, avec le recours de l’intelligence artificielle, à soigner des pathologies et augmenter les capacités cérébrales. Comment analysez-vous ces annonces ?
Les déclarations d’Elon Musk sont problématiques. Sa société travaille sur les implants cérébraux et sur les interfaces cerveaux-ordinateurs. Nous savons que quand une personne a une activité cérébrale, ses neurones émettent des signaux électriques. Les recherches dans le domaine des interfaces visent à analyser ces signaux grâce à des techniques d’apprentissage machine, afin de les transformer par exemple en commande d’un objet, d’une prothèse, etc. On parle ici d’un signal qui part de l’homme vers une machine.
Elon Musk, lui, laisse entendre qu’il pourrait aussi avoir un signal retour, de la machine vers l’homme donc. Nous pourrions, à terme, tous être connectés au réseau par nos cerveaux et bénéficier d’informations mises en commun. En étant tous liés par un « lacet neuronal » nous deviendrions d’une certaine manière transparents les uns aux autres. Il y a, derrière cette idée, la théorie selon laquelle l’intelligence artificielle va nous dépasser et qu’il faut, pour rivaliser, augmenter notre mémoire.
D’où vient cette notion de mémoire augmentée ?
En partie des auteurs de science-fiction, comme l’Ecossais Iain Banks (1954-2013), qui, dans la seconde moitié du XXe siècle, utilise le terme de « lacet neuronal »repris par Elon Musk dans sa présentation. Mais on trouve des liens encore plus anciens. Le physicien Vannevar Bush (1890-1974), conseiller scientifique du président Roosevelt, a écrit en 1945 – avant le premier ordinateur électronique – un texte visionnaire, As We May Think (« comme nous pourrions penser »), où il imagine le Memex (Memory Extender), un extenseur de mémoire pour gérer le savoir technologique en constante augmentation.
Il imagine, dessin à l’appui, un verre dépoli, l’équivalent d’un écran, sur lequel pourrait être projeté de l’information. Dans la conclusion du texte, il évoque les ondes électriques cérébrales et s’interroge : « Peut-être qu’un jour, on saura quelle est leur nature et on pourra passer, sans intermédiaire, directement de l’électricité extérieure, remplie d’information, à l’électricité intérieure. » On peut voir une certaine continuité entre sa vision et celle d’Elon Musk.
N’est-ce pas, avant tout, un coup de communication d’un entrepreneur coutumier du fait ?
On peut n’y voir qu’une stratégie industrielle habile. Ce projet de lacet neuronal qui relève de la science-fiction attire publicité et investisseurs. Avec, on peut l’imaginer, un deuxième projet plus concret, tel que commercialiser les thérapeutiques qui utilisent des implants cérébraux – comme soigner les symptômes de Parkinson avec de la stimulation électrique profonde – et développer les applications des interfaces cerveaux-ordinateurs. Elon Musk a déjà utilisé cette stratégie avec SpaceX en médiatisant un vieux projet de science-fiction, envoyer des gens sur Mars, puis en développant des services de navettes et de satellites.
Cependant, Elon Musk n’est pas le seul à faire des déclarations d’intention autour des interfaces cerveaux-ordinateurs. Facebook travaille sur le sujet depuis plusieurs années [l’entreprise a racheté en 2019 la société CTRL-labs pour plus de 500 millions de dollars, soit 422 millions d’euros], et Mark Zuckerberg a annoncé qu’il aimerait que l’on puisse fluidifier la relation entre les utilisateurs et le réseau social Facebook, par exemple à l’aide d’un casque. Celui-ci pourrait identifier vos désirs et vous proposer ce que vous recherchez, avant même que vous ne vous le soyez formulé.
On peut émettre des doutes sur les réelles possibilités de mise en œuvre de cet objectif, mais ces développements annoncés posent question. Dans les propos de Mark Zuckerberg tout comme dans ceux d’Elon Musk existe l’idée sous-jacente que l’on va être capable de lire dans vos pensées, donc d’une certaine manière de vous contrôler.
Quelles nouvelles questions éthiques se posent pour ces applications alliant neurotechnologies et intelligence artificielle ?
La question se doit d’être élargie. La prochaine évolution de l’IA n’est pas, comme certains peuvent le fantasmer, l’avènement d’une machine qui aurait une conscience, cela n’a pas de sens. Par contre, les algorithmes d’apprentissage machine et donc ce qu’on appelle l’intelligence artificielle vont être de plus en plus requis pour interpréter des sommes énormes d’informations que nous collectons.
Les processeurs sont de plus en plus puissants, petits et peu chers, tout comme les capteurs, qui sont en voie d’être installés partout : dans la nature pour surveiller l’environnement, dans les installations industrielles et urbaines, sur des objets connectés, mais aussi sur et dans les corps pour capter des données biométriques. Ces développements à venir nécessitent une réflexion forte sur les limites à imposer. Et aussi sur les instances qui peuvent fixer ces limites.Article réservé à nos abonnés Lire aussi Nataliya Kosmyna, à la recherche d’une intelligence artificielle éthique
Que manque-t-il actuellement dans le dispositif ?
La création de comités d’éthique ces cinq dernières années a été une réaction aux inquiétudes face au développement rapide des applications de l’IA. Fin 2019, on en comptait 84 dans le monde, issus d’institutions, d’universités, d’entreprises… Mais j’ai été étonné de voir leur peu de réaction, par exemple, face aux déclarations pourtant très médiatisées d’Elon Musk. Ces comités édictent des normes et des régulations. Je ne suis pas sûr que ces réponses soient adaptées aux évolutions actuelles.
Où le problème se situe-t-il ?
Ces comités d’éthique se contentent de faire des recommandations de normes et de grands principes génériques avec lesquels tout le monde est d’accord. Nous sommes tous pour la protection de la vie privée, la transparence, la confiance, l’équité des algorithmes, etc. Mais ces concepts restent abstraits. L’éthique, c’est, au contraire, la confrontation à des situations.
Ainsi, ces grands principes entrent parfois en contradiction les uns avec les autres. Vous ne pouvez pas, par exemple, avoir une protection de la vie privée et une transparence. Ou encore défendre une politique inclusive, telle celle prônée par l’Europe, sans absence d’une certaine discrimination. Pour qu’une vraie réflexion éthique soit menée, il faut prendre chaque projet, l’analyser et étudier en détail ses conséquences.Article réservé à nos abonnés Lire aussi « Pour développer l’intelligence artificielle de confiance, il faut partir de cas d’usage précis, simples et maîtrisables »
Le 10 septembre, Jeff Sibell, multi-entrepreneur et fondateur de la société BrainGate, a annoncé céder recherche et brevets sur les interfaces cerveaux-ordinateurs à l’université de Tufts (Etas-Unis), soulignant la nécessité du « temps académique » pour une approche plus réfléchie face à certaines entreprises « menant la charge pour connecter l’humanité aux machines ». L’autogestion de certaines entreprises, qui se sont dotées de simples chartes éthiques pour mener de telles recherches, est-elle tenable ?
Les entreprises ont intérêt à être assez avisées pour ne pas faire des choses qui manifestement pourraient donner une image déplorable d’elles-mêmes. Mais cela ne suffit pas. Personne ne connaît les conséquences réelles sur le long terme d’un certain nombre de technologies. Et les Etats ne se peuvent pas se défausser sur ces grands industriels pour prendre des précautions.Article réservé à nos abonnés Lire aussi « Il faut repenser l’intelligence artificielle et déterminer ce qui pourrait la rendre plus utile pour faire face à des situations analogues au Covid-19 »
L’OCDE a émis des recommandations sur les innovations en technologies neurocognitives en décembre 2019. En février 2020, la Commission européenne a publié un livre blanc pour encadrer les risques liés à l’IA, en juin, 15 pays (dont le G7) ont lancé le « Global Partnership on AI » pour une utilisation « responsable ». La réponse politique est-elle à la hauteur de l’enjeu ?
Il est urgent d’accélérer. On ne peut pas s’en remettre uniquement aux acteurs privés et les Etats doivent prendre leurs responsabilités dans ces matières. Un grand nombre de ces entreprises veulent participer à l’établissement de normes et à des comités d’éthique. Certains même veulent avoir le leur en propre. Il faudrait faire une analyse politique de la fonction de ces différents comités.
Il ne faut pas être naïf. Les normes ne sont pas des lois, et s’opposent, comme le disait Michel Foucault, à la souveraineté. Certains de ces acteurs ont en réalité un but politique en tête, prendre le pouvoir en allant au-delà de la logique des Etats.