Le scénario le plus probable se situe à mi-chemin entre la conquête du monde et l’échec retentissant. Après tout, l’IA n’est qu’un outil parmi d’autres.

Benjamin Fels est le PDG de MACRO-EYES, une entreprise à l’avant-garde du déploiement de l’IA en médecine. Avec sa petite équipe d’experts, il s’attaque aux défis liés à l’utilisation des données médicales actuelles, pour le moins dispersées. En tant que chef de produit, il examine en détail la façon dont les logiciels interagissent avec les médecins et les patients. Ses décisions quotidiennes raffinent la relation entre l’homme et la machine. Selon lui, il reste encore beaucoup de chemin à parcourir avant que la technologie — en particulier l’intelligence artificielle — puisse remplacer les médecins.

Comment faites-vous pour convaincre les médecins de confier une portion de leur travail à une machine ?

En général, les algorithmes font des choses qu’on ne comprend pas. Il faut donc avoir confiance que même si l’algorithme prend des décisions qui nous déroutent, son fonctionnement est basé sur une logique structurelle à laquelle nous adhérons. Tout revient à l’interface, c’est elle qui détermine la façon dont on perçoit et comprend les décisions et la logique de la machine.  

Nous voulons permettre à tous les médecins d’examiner les décisions prises par la machine afin de comprendre pourquoi elle détecte des similitudes entre certains patients ou événements. Le médecin peut ensuite s’attarder à des niveaux supérieurs de perception ou d’abstraction. Jusqu’à un certain point, il peut même se projeter dans l’avenir et entrevoir ce qui risque d’arriver au patient. 

Où réside l’intelligence dans la technologie sur laquelle vous travaillez ? Qu’est-ce qui la distingue d’un moteur de recherche évolué ?

Ce que nous développons, c’est la capacité de détecter des patients ou des événements médicaux similaires à partir de centaines d’indicateurs (groupe sanguin, antécédents médicaux, etc.), alors que certains éléments pourraient échapper à l’humain. Ce qui nous intéresse vraiment, c’est le dénominateur commun entre les patients ou les événements que nous examinons.   

Dans une optique mathématique, la notion de similitude est un problème complexe. L’un des premiers outils que nous avons conçus permettait au médecin de déterminer si une correspondance détectée par le système était particulièrement bonne ou mauvaise. La machine peut ainsi « apprendre » en fonction de l’évaluation du médecin. 

La clé de la confiance, c’est que les médecins sentent qu’ils sont les décideurs. Et en effet, ce sont eux qui décident ! Concevoir un robot-docteur, ça ne m’intéresse pas. Ce serait inutile pour bien des raisons. Et de toute façon, je crois que la technologie et les infrastructures ne sont pas encore prêtes.

C’est d’ailleurs pour cela que j’ai beaucoup de réserves envers l’IA. Je tiens à le souligner : la technologie que nous développons est basée sur un environnement dans lequel interagissent un expert (le médecin) et un système intelligent (l’IA). L’expert apporte des connaissances et des idées que le système n’a pas. Je ne parle pas de données ici, mais bien d’informations. C’est un cran au-dessus.

Nous, les humains, observons et connaissons des choses que les données ignorent, puisque nous ne vivons pas encore dans un monde dont chaque fragment de réalité est enregistré. Heureusement. 

Les médecins parlent toujours de la démarche, c’est-à-dire la façon dont un patient se déplace ou manifeste sa douleur. C’est un exemple d’information essentielle qu’on peut déduire à partir d’indices. Mais ces indices sont difficiles à obtenir si on se contente d’examiner les données, du moins celles qu’on peut recueillir à l’heure actuelle.

Au bout du compte, l’important est de savoir si les données reflètent vraiment la réalité. Ensuite, il faut trouver comment transmettre à la machine intelligente ce que nous savons, voyons ou comprenons en tant qu’humains, mais qui est hors de sa portée. Pour moi, c’est le Saint Graal ! Un outil performant, placé entre les mains d’un expert qui sait l’utiliser, c’est une combinaison gagnante qui peut avoir un impact majeur dans le monde réel. 

Quelles sont les principales limites aux progrès de l’IA dans le domaine des soins de santé ?

Même la machine la plus ingénieuse au monde va débiter du charabia si elle est alimentée avec de mauvaises données. Ici encore, il faut revenir à l’interaction humain-machine. Même amener la machine à « nettoyer » elle-même les données qu’on lui fournit peut se révéler une tâche extrêmement délicate, car elle doit d’abord comprendre ce qu’elle traite. Qu’est-ce qui fait qu’une donnée est correcte ou incorrecte ? Quelles sont les variables ou les valeurs possibles ? Qu’est-ce qui distingue une anomalie significative d’une anomalie découlant d’une mauvaise saisie de données ?

Je fais souvent l’analogie avec un client dont le réfrigérateur tombe en panne. Il appelle en disant « Mon réfrigérateur vient de tomber en panne, mais c’est impossible de venir le voir. Pouvez-vous le réparer ? » Pas facile de régler un problème sans l’examiner de visu… Dans le domaine de la santé, c’est pourtant une réalité, puisque nos clients utilisent souvent des données contenant des informations médicales confidentielles. 

Ce que je tiens à souligner, c’est que les données elles-mêmes doivent refléter la réalité. Il suffit de quelques indicateurs non conformes pour que la vérité soit déformée. Et si on prend des décisions en se basant sur des données qui ne reflètent pas la réalité, on risque de basculer dans des scénarios risqués, voire extrêmement risqués au plan médical.

Diriez-vous que les gens sont trop enthousiastes face à l’IA ?

Il y a une telle frénésie autour de l’IA et de l’apprentissage automatique… Quand des clients industriels ou des entreprises tombent sous le charme et que les résultats ne sont pas immédiats, je crains qu’ils soient frustrés et qu’ils disent « Au diable ! On croyait que vous pouviez prédire l’avenir en deux heures, puis résoudre tous nos problèmes. De toute évidence, ce n’est pas le cas, alors on n’est plus intéressés. »

Revenons en arrière de 20 ou 25 ans, lors du premier boom de l’apprentissage automatique et de l’IA. Nous avons vécu un passage à vide, car les clients ont dit « Ouais, on a essayé la technologie, mais ça n’a rien donné. » Quand on exagère les promesses et qu’on minimise les défis à surmonter pour que la technologie livre ses promesses, on laisse croire aux gens que c’est du plug and play.