« Plutôt que de craindre que les médecins soient remplacés par l’intelligence artificielle, interrogeons-nous sur le type de service que nous souhaitons lui déléguer »
TRIBUNE
Collectif
Si l’IA laisse présager des avancées majeures en imagerie médicale, son usage nécessite une réflexion pluridisciplinaire, font valoir dans une tribune au « Monde » des chercheurs en mathématiques appliquées, informatique, physique, neurosciences et sciences médicales.
Publié le 01 juin 2022 à 07h00 – Mis à jour le 01 juin 2022 à 09h32 Temps de Lecture 3 min.
Les bases de l’intelligence artificielle (IA) ont été posées il y a plus d’un demi-siècle, et la médecine fut dès le départ un champ d’expérimentation majeur. Le premier réseau de neurones artificiels fut proposé en 1958. Cet algorithme, inspiré du fonctionnement cérébral, relie entre elles des fonctions mathématiques ou « neurones ». Chaque neurone fournit une valeur qui dépend du niveau de ses multiples entrées.
Lorsque l’on présente des données, le réseau ajuste l’importance accordée à chaque neurone pour fournir la solution. En multipliant le nombre d’exemples, l’algorithme fournit des réponses correctes à des situations nouvelles : il apprend. Ces travaux sont restés longtemps au stade du laboratoire, mais les choses ont changé récemment, du fait de l’accès à de larges bases de données permettant d’entraîner les réseaux, d’algorithmes performants pour ajuster des millions de neurones, et des capacités accrues des ordinateurs.
Si l’IA classe de façon très fiable des images d’objets ou d’animaux, il devient possible de détecter des lésions dans des images médicales. Sur la base des résultats actuels, la capacité de l’IA à reconnaître des cas pathologiques subtils (classification de tumeurs de la peau) ou leur évolution (modification du volume des lésions) va atteindre, voire dépasser, les performances humaines en qualité et en rapidité, sans baisse liée à la fatigue. Cela ouvre de nouvelles perspectives thérapeutiques.
« Le potentiel de l’IA est avéré, mais les outils sont peu utilisés en milieu médical »
La quantification automatique de lésions cérébrales apparues entre deux consultations permet au neurologue de personnaliser la thérapie de son patient. L’extraction puis l’analyse des milliers de dossiers de patients traumatisés crâniens hospitalisés dans un CHU ces cinq dernières années va permettre de les classer, d’analyser les images associées, d’extraire des signatures prédisant la sévérité de l’atteinte, et de mettre en place des protocoles de soins optimisés. Le potentiel de l’IA est avéré, mais les outils sont peu utilisés en milieu médical.
Quels sont les freins au déploiement plus large de l’IA en santé, et où se situent nos efforts de recherche ? Les modèles d’IA, plus rapides et plus fiables qu’un opérateur humain, ne sont généralisables à l’ensemble des patients que si les exemples ayant servi à leur entraînement sont de qualité, nombreux et représentent la diversité des cas rencontrés. Nos efforts portent sur la constitution de larges bases de données, harmonisées, pour tenir compte des conditions d’acquisition et de la diversité des bassins de recrutement de patients.
Adhésion du patient et confiance
Les aspects éthiques et juridiques (« Avec qui et sous quelles conditions je partage mes données de santé ») constituent des points-clés encore imparfaitement résolus. Si, en pratique, la très grande majorité des patients acceptent que leurs images médicales puissent être utilisées pour la recherche, l’information du patient, le respect de son éventuelle opposition et la garantie de confidentialité (préservation de l’anonymat) sont essentiels pour garantir son adhésion et assurer une relation de confiance entre utilisateurs et fournisseurs de données.Lire aussi : Article réservé à nos abonnés Controversé et retardé, le Health Data Hub veut pourtant faire ses preuves dans la santé
Nos machines sont puissantes mais peu capables d’apprendre seules. Elles sont aussi très énergivores. La création de bases d’exemples annotés (« ceci est du tissu sain », « ceci est un cancer ») est très consommatrice de temps médecin-expert. Nous développons des techniques pour réutiliser des réseaux déjà préentraînés, limiter le nombre d’exemples annotés requis et le coût énergétique.
Nos machines sont efficaces mais peuvent être dupées : l’introduction d’une modification subtile dans une image peut conduire à un résultat aberrant ; l’apprentissage de nouveaux cas peut conduire à l’oubli de cas préalablement bien reconnus. Peu loquaces, nos machines peuvent fournir une solution juste, mais sont incapables de fournir des éléments explicatifs. Nous travaillons à renforcer l’acceptabilité du résultat fourni (« lésion à 90 % de certitude », « mauvaise qualité d’image, pas de résultat »).
« Quelle place accorder à une machine, alors que la relation entre le soignant et le soigné est primordiale ? »
Nos machines sont brillantes sur une tâche mais limitées à cette tâche. Alors, plutôt que de craindre que, contraints par leur lente évolution biologique, les médecins ne soient remplacés par les machines, interrogeons-nous ensemble sur le type de service que nous souhaitons, ou pas, déléguer à ces dernières. Quelle est la spécificité d’une décision prise par un humain ? Qu’avons-nous besoin de savoir pour être en confiance avec celle prise par une machine ? Quelle place accorder à une machine, alors que la relation entre le soignant et le soigné est primordiale ?Lire aussi : Article réservé à nos abonnés L’œil de l’intelligence artificielle moins affûté que celui des médecins ?
Les décisions automatisables sont prises sur la base d’éléments mesurables ; qu’en est-il des éléments non quantifiables mais tangibles intervenant dans la prise de décision médicale ? Finalement, qu’attendent ou que redoutent les patients et leurs médecins des outils d’IA ?
Une réflexion multidisciplinaire, incluant les sciences humaines et les associations de patients, est nécessaire pour que nous avancions dans la bonne direction, afin que nos technologies soient fiables, robustes, diffusables, au bénéfice de la santé de toute la population, sans renforcer les inégalités, et acceptées des patients comme des soignants.
Stéphanie Allassonnière (professeure de mathématiques appliquées, université Paris Cité), Laure Blanc-Féraud (chercheuse en traitement numérique de l’image, université Côte d’Azur), Thomas Christen (chercheur en neurosciences, Inserm), Michel Dojat (chercheur en neurosciences, Inserm), Olivier Humbert (professeur en biophysique et médecine nucléaire, université Côte d’Azur), Jean-Baptiste Masson (chercheur en biologie computationnelle, Institut Pasteur), Hippolyte Verdier (doctorant en biologie computationnelle, Institut Pasteur).
Cosignataires : Sophie Achard (CNRS), Nicholas Ayache (Inria), Emmanuel Barbier (Inserm), Ninon Burgos (CNRS), Philippe Cinquin (université Grenoble Alpes, Chuga, CNRS), Laurent D. Cohen(CNRS), Olivier Colliot (CNRS), Rachid Deriche(Inria), Stanley Durrleman (Inria), Florence Forbes(Inria), Laure Fournier (université Paris Cité), Benjamin Lemasson (Inserm), Marco Lorenzi (Inria), Juliette Raffort-Lareyre (CHU de Nice), Jocelyne Troccaz (CNRS), Ellen Van Obberghen-Schilling(Inserm), Sandrine Voros (Inserm), Thomas Walter (Mines ParisTech), Maria A. Zuluaga (Eurecom).
Tous les signataires sont membres des Instituts interdisciplinaires d’intelligence artificielle (3IA).
Collectif