Comprendre le cerveau pour améliorer l’intelligence artificielle

Catherine Couturier
Collaboration spéciale
« L’apprentissage est un des processus les plus intéressants : c’est de là que nous vient notre adaptabilité », affirme Eilif B. Muller, professeur adjoint de neurosciences à l’Université de Montréal.
Illustration: Luc Melanson « L’apprentissage est un des processus les plus intéressants : c’est de là que nous vient notre adaptabilité », affirme Eilif B. Muller, professeur adjoint de neurosciences à l’Université de Montréal.

Ce texte fait partie du cahier spécial Recherche

Une étude récente publiée dans Nature Communications fait la lumière sur le processus d’apprentissage du cerveau. Des avancées qui pourraient contribuer à améliorer les performances de l’intelligence artificielle.

« Notre point de départ est que tous les processus cognitifs qui surviennent dans notre cerveau, y compris l’apprentissage, sont des processus physiques qui peuvent donc être simulés et analysés à l’aide d’ordinateurs », affirme d’emblée Eilif B. Muller, professeur adjoint de neurosciences à l’Université de Montréal. Le chercheur travaille sur la modélisation des processus du cerveau depuis une vingtaine d’années à l’aide des mathématiques et de la physique, pour mieux comprendre comment le cerveau apprend. « L’apprentissage est un des processus les plus intéressants : c’est de là que nous vient notre adaptabilité », ajoute-t-il.

C’est en Suisse, dans l’équipe internationale du Blue Brain Project, que le professeur Muller a commencé à explorer le néocortex. Cette initiative a été lancée par le professeur Henry Markram de l’École polytechnique fédérale de Lausanne, en 2005, dans le but de simuler le néocortex, cette zone du cerveau qui ressemble à la coquille d’une noix de Grenoble. C’est dans cette surface de 2 à 3 mm d’épaisseur que se fait l’apprentissage adaptatif : développement du langage, compréhension des mathématiques, apprentissage par les erreurs, traitement des images, des sons, des odeurs, etc.

Simulation virtuelle

 

Les circuits du cerveau sont composés par des neurones, connectés par des synapses. Depuis plusieurs années, les scientifiques du domaine pensent que ce qu’on apprend est écrit ou stocké dans notre cerveau sous forme de changement à long terme des connexions entre les neurones, via les synapses. Cette plasticité synaptique serait le substrat de l’apprentissage.

Eilif B. Muller et ses collaborateurs du Blue Brain Project ont réalisé une simulation physique des processus d’apprentissage dans le néocortex. « Ça fait des années qu’on essaie de trouver des règles, des patterns pour ces changements. C’est comme si on avait plusieurs pièces de casse-tête, avec certaines manquantes, et aucune image de référence », relate M. Muller. Ceux-ci ont, pour ce faire, construit une copie virtuelle du néocortex d’un jeune rat qu’ils ont entraîné à l’aide de données, pour ensuite comparer leurs prévisions avec la réalité.

Les résultats, publiés dans Nature Communications, sont surprenants. « Nous avons trouvé une seule règle qui unifie les observations expérimentales qu’on a en ce moment, et notre modèle peut faire des prédictions », confie M. Muller. L’équipe espère maintenant répéter l’expérience.

À l’intersection des neurosciences et de l’IA

Ces recherches sur le cerveau, quoique fondamentales, ouvrent la voie à plusieurs applications pratiques, en aidant entre autres à comprendre les mécanismes des troubles neurodéveloppementaux comme l’autisme, la schizophrénie ou le syndrome de Down. Mais mieux comprendre cette région importante du cerveau pourrait aussi aider à construire des intelligences artificielles plus poussées. « Les chercheurs en intelligence artificielle tentent activement de construire des systèmes qui partagent les puissantes capacités d’apprentissage du néocortex », remarque M. Muller.

Montréal est d’ailleurs un milieu important de ces recherches, à l’intersection des neurosciences et de l’intelligence artificielle, avec la présence de Yoshua Bengio (directeur scientifique de l’IVADO) et de ses collègues, de plusieurs organisations et du soutien important des gouvernements. C’est d’ailleurs pourquoi le professeur Muller a décidé de venir.

« L’objectif de nos recherches est double », explique M. Muller : alors que l’on comprend mieux les mécanismes de l’apprentissage, on peut implémenter ceux-ci dans de nouvelles approches d’intelligence artificielle. Mais le langage mathématique de l’IA peut aussi aider les neurosciences : « l’IA a développé des concepts et des langages mathématiques qui peuvent décrire les règles d’apprentissage dans des systèmes artificiels », précise M. Muller, qui vise à rapprocher ces deux champs de recherche.

Une intelligence artificielle… plus humaine

Mais que ferait une IA « plus intelligente » ? En ce moment, les IA sont entraînées en une fois, à l’aide de quantité énorme de données, pour qu’elles apprennent à faire des classifications (différencier par exemple un chien d’un chat). Mais une fois tout cet apprentissage effectué, la machine n’arrive pas à s’ajuster en cours de route (si, par exemple, on s’aperçoit que le chihuahua a été étiqueté comme un chat plutôt qu’un chien). L’algorithme est incapable de faire cet apprentissage en continu et oubliera tout ce qu’il sait déjà lorsqu’on lui présente de nouvelles données.

La façon dont nos synapses réagissent pourrait inspirer de nouvelles façons de résoudre, entre autres, ce problème. « Nous voyons de grandes différences entre la façon d’apprendre des algorithmes et ce qu’on connaît des changements des synapses dans le cerveau. C’est une contradiction qui fascine les scientifiques et c’est un terreau très fertile pour la fertilisation croisée des idées », conclut M. Muller.

À voir en vidéo