L’intelligence artificielle ne résoudra pas tout

Holden Thorp, rédacteur en chef des revues du journal Science, et Michael Yaffe, rédacteur en chef de la revue Science Signaling, s’inquiètent pour l’avenir de la recherche fondamentale, qui a pour objectif d’accroître nos connaissances sur le monde et de découvrir les mécanismes fondamentaux en jeu dans les phénomènes que l’on observe.
iStockphoto Holden Thorp, rédacteur en chef des revues du journal Science, et Michael Yaffe, rédacteur en chef de la revue Science Signaling, s’inquiètent pour l’avenir de la recherche fondamentale, qui a pour objectif d’accroître nos connaissances sur le monde et de découvrir les mécanismes fondamentaux en jeu dans les phénomènes que l’on observe.

Même si le big data et les méthodes d’apprentissage automatique (machine learning) donnent parfois des résultats spectaculaires, ils ne permettent pas de comprendre les mécanismes en jeu. Ceux-ci ne peuvent être élucidés que par la recherche fondamentale, qui demeure très importante pour assurer le progrès scientifique. C’est ce que rappellent dans un éditorial publié dans la revue Science Signaling Holden Thorp, rédacteur en chef des revues du journal Science, et Michael Yaffe, rédacteur en chef de la revue Science Signaling.

« Face à l’accumulation de vastes banques de données scientifiques et aux nouvelles méthodes [informatiques et statistiques] d’analyse de ces mégadonnées, il est séduisant de croire que les principales avancées de la science biomédicale découleront principalement de la traduction de ces trésors d’informations directement en applications pour les soins de santé, pour l’agriculture et en stratégies pour contrer les changements climatiques, plutôt que des découvertes engendrées par la recherche fondamentale », affirment Thorp et Yaffe. Ils font, par la même occasion, remarquer que les principales agences de financement nationales, internationales et privées semblent accorder une part substantielle de leurs subventions à cette démarche visant la mise au point d’applications pratiques immédiates.

Tous deux s’inquiètent pour l’avenir de la recherche fondamentale, qui a pour objectif d’accroître nos connaissances sur le monde et de découvrir les mécanismes fondamentaux en jeu dans les phénomènes que l’on observe, mécanismes qui pourront ensuite être exploités pour développer des applications biomédicales.

Pertes scientifiques à long terme

Ils font valoir qu’il demeure important d’investir dans la science fondamentale, même si plusieurs soutiennent que la recherche scientifique devrait porter sur des préoccupations plus pragmatiques, surtout en ce moment, étant donné le potentiel incroyable que recèlent les technologies de l’intelligence artificielle (IA) et les abondantes données scientifiques. Tout cela afin de répondre aux défis monumentaux auxquels fait face notre espèce en particulier, voire la planète tout entière. Ils mettent « en garde contre une recherche mettant trop l’accent sur le gain technologique à court terme, qui entraînerait des pertes scientifiques à long terme ».

« Les plus grands progrès de la science sont encore le fruit de méthodes de recherche éprouvées », soulignent-ils tout en donnant l’exemple du Paxlovid, cet antiviral utilisé contre la COVID-19, qui a été mis au point grâce à notre compréhension de l’enzymologie virale et de la chimie médicinale traditionnelle, ainsi que celui de l’immunothérapie pour traiter le cancer, qui a été élaborée à partir des nouvelles connaissances acquises sur l’immunologie lors de recherches fondamentales.

L’utilisation des méthodes d’apprentissage automatique avancées, comme l’apprentissage profond (deep learning), en sciences biologiques nous a révélé à quel point notre compréhension fondamentale est encore déficiente, indiquent-ils.

Recherche fondamentale vitale

Les logiciels de calcul AlphaFold et RoseTTAFold arrivent à prédire avec précision la structure tridimensionnelle d’une protéine à partir de sa séquence d’acides aminés grâce à des méthodes d’apprentissage profond : une prouesse stupéfiante, que l’humain n’a jamais réussie, bien qu’il connaisse les principes physico-chimiques depuis les années 1950, relatent-ils.

« Cet exemple nous montre qu’il y a des aspects très fondamentaux du processus de repliement des protéines que nous ne comprenons pas encore. Poursuivre la recherche fondamentale visant à comprendre ce processus est vital si l’on veut réduire l’écart entre la prédiction formulée par l’IA et notre compréhension scientifique », écrivent-ils.

Autre exemple : l’apprentissage automatique réussit mieux que les médecins à déceler des pathologies dans des images de mammographie, de radiographie pulmonaire et de tomodensitométrie. « Mais ce que ces approches ne peuvent faire adéquatement est d’expliquer exactement ce que voit l’ordinateur quand il fait un diagnostic ou une classification. »

Et l’apprentissage automatique n’aurait pu permettre de prévoir qu’un coronavirus, qui faisait l’objet de recherches fondamentales depuis 1960, deviendrait le pathogène qui menacerait le plus les humains au cours des cent dernières années. Ni que des vaccins à ARNm nous en protégeraient. Les fruits de la recherche scientifique fondamentale n’auront jamais été aussi cruciaux que dans cet épisode, soulignent-ils.

Dans quelle direction chercher

« Si on a des vaccins à ARN aujourd’hui, c’est en grande partie grâce aux recherches fondamentales qu’a menées la Hongroise Katalin Karikó, qui, il y a 25 ans, cherchait à comprendre comment fonctionne l’ARNm, alors que ce n’était pas la mode. […] Les résultats de la recherche fondamentale sont imprévisibles. Peut-être qu’ils ne mèneront nulle part, peut-être que la réponse sera négative, mais c’est important de le savoir, car cela nous dit de ne plus chercher dans cette direction-là », ajoute pour sa part Yves Gingras, directeur de l’Observatoire des sciences et des technologies.

Croire qu’avec des algorithmes fondés sur l’apprentissage automatique profond et des quantités massives de données, on n’aura plus besoin de théories parce que les données vont nous donner les réponses « constitue une sorte de régression vers l’empirisme », estime-t-il.

« Les techniques d’IA reposent sur des algorithmes qui ne font que des corrélations, qui ne cherchent que des relations entre divers éléments dans une masse de données. Et, une fois établies, ces relations permettent de prédire par induction et extrapolation les cas futurs avec une certaine probabilité », affirme le professeur d’histoire et de sociologie des sciences à l’UQAM.

« Faire des prédictions, ce n’est pas expliquer. Si on se contente de prédire, on pourrait ainsi continuer d’utiliser le modèle planétaire des épicycles de Ptolémée [astronome et mathématicien grec du IIe siècle de notre ère], qui est faux, mais qui fonctionne. Si on fournit à l’ordinateur de nombreux épicycles, ce dernier donne en effet de bonnes prédictions de la position des planètes vues de la Terre. Mais ce n’est que de la prédiction empirique, qui permettait même aux Babyloniens de prédire les éclipses sans vraiment comprendre comment elles se produisent », précise-t-il.

« Il a fallu attendre Kepler et Newton pour vraiment expliquer — à la suite de la formulation d’une théorie physique fondée sur l’attraction entre des planètes tournant autour du Soleil — ce que Ptolémée, et avant lui les scribes babyloniens, se contentaient de prédire », rappelle-t-il dans une chronique publiée dans la revue Pour la science.

Fausses prédictions

M. Gingras fait également remarquer que « les prédictions [produites par les méthodes de l’IA] ne marchent jamais à 100 %. Elles stagnent en général à 80 %. Elles sont fausses dans 20 % des cas. Il y a donc une incertitude ».

« Tant qu’on ne connaît pas le mécanisme, on ne peut pas avoir pleinement confiance, rappelle-t-il. Par contre, on peut faire confiance par exemple aux ordinateurs qui aujourd’hui planifient un voyage vers la Lune parce qu’ils appliquent les équations de Newton, de Kepler et d’Einstein, qu’on sait valides. »

Les auteurs de l’éditorial publié dans Science Signaling ne condamnent pas le recours à l’IA, qu’ils voient plutôt comme une technique permettant d’accélérer les découvertes scientifiques. « Les algorithmes, c’est de la technologie, c’est utile, mais ça ne peut pas remplacer la science », ajoute M. Gingras.

« De plus nombreuses découvertes émergeront si nous misons d’abord sur une meilleure compréhension de la biologie pour orienter l’analyse des données plutôt que de penser naïvement qu’elles viendront par le cheminement inverse », concluent Thorp et Yaffe.

À voir en vidéo