Comment une machine devient-elle intelligente?

La méthode visant à laisser l’ordinateur acquérir ses connaissances lui-même en regardant des exemples étiquetés a fonctionné de manière surprenante.
Photo: iStock La méthode visant à laisser l’ordinateur acquérir ses connaissances lui-même en regardant des exemples étiquetés a fonctionné de manière surprenante.

Pour agir de manière intelligente, l’ordinateur doit acquérir des connaissances, signale d’entrée de jeu Yoshua Bengio, directeur de l’Institut des algorithmes d’apprentissage de Montréal (MILA), et professeur à l’Université de Montréal. « Pendant des décennies, on a essayé de donner des connaissances à l’ordinateur en les exprimant à travers un programme. Malheureusement, il y a beaucoup de choses qu’on ne peut lui expliquer, car il s’agit de connaissances intuitives », explique-t-il. Cette approche d’intelligence artificielle symbolique, équipée de systèmes experts, n’a donc pas abouti.

« Il y a eu beaucoup d’efforts pendant plusieurs décennies pour essayer de construire des systèmes capables de vision et élaborés à partir des principes de la nature, mais cela a été un échec total, ajoute Yann LeCun, professeur à l’Université de New York et directeur du laboratoire de recherche de Facebook, FAIR. On a aussi utilisé d’autres principes basés sur les mathématiques de représentation des formes. Et cela a aussi été relativement peu concluant. Le monde réel est très complexe et entaché de bruit, de variations auxquelles on ne pense pas. On n’arrive pas à concevoir toutes les variations possibles. »

Apprentissage automatique ou « machine learning »

Par contre, la méthode visant à laisser l’ordinateur acquérir ses connaissances lui-même en regardant des exemples étiquetés a fonctionné de manière surprenante. Cette méthode que l’on appelle « apprentissage automatique » ou « apprentissage statistique » (ou machine learning, en anglais) est en fait un apprentissage supervisé, dans le sens où il s’apparente à la situation où on apprend à un enfant à l’aide d’un livre d’images. « On montre une image d’éléphant à l’enfant tout en lui disant qu’il s’agit d’un éléphant. Au bout de quelques images, l’enfant réalise ce qu’est un éléphant. Malheureusement, on doit montrer beaucoup plus d’images aux ordinateurs si l’on veut qu’ils arrivent à reconnaître et à classifier des voitures et des avions, par exemple. Ainsi, à force de leur montrer des milliers d’images d’avions et de voitures, les ordinateurs arrivent à comprendre ce qui fait l’essence de la voiture et de l’avion. Il leur est toutefois plus difficile d’abstraire la notion de chaises, par exemple, car celles-ci viennent dans des formes très diverses », explique LeCun.

Réseau de neurones

« L’apprentissage automatique n’a toutefois connu un véritable succès que lorsqu’on a construit des machines en s’inspirant de l’architecture du cortex visuel humain, c’est-à-dire en assemblant des unités très simples [neurones virtuels] en réseau compliqué [d’où l’appellation de réseau de neurones] », précise M. LeCun.

Durant le processus d’apprentissage, la machine modifie les interactions entre ces unités, ou neurones simulés, qui sont en fait des fonctions mathématiques comportant plusieurs coefficients ajustables, et dont la valeur se précise à mesure que l’on montre à la machine plusieurs milliers d’images de l’objet à reconnaître qui sont étiquetées, c’est-à-dire qui précisent l’identité de l’objet. « Le principe de base est très similaire à celui observé au niveau du cerveau, où l’apprentissage modifie l’efficacité de certaines synapses, ou connexions entre les neurones », fait remarquer le scientifique.

Apprentissage profond ou « deep learning »

Cette approche d’apprentissage automatique comporte plusieurs couches de traitement capables d’apprentissage ; c’est la raison pour laquelle on la désigne sous l’appellation d’apprentissage profond (deep learning). Dans certains types de réseau de neurones simulés, appelés réseaux de neurones convolutifs, que Yann LeCun a conçus lors de son passage à l’Université de Toronto et qui sont utilisés pour la reconnaissance d’images, chacune des unités (neurones simulés) de la première couche regarde une petite partie de l’image et tente d’y détecter un motif particulier très simple, comme un contour vertical ou horizontal. La couche suivante combine ces motifs simples pour détecter des formes plus complexes, comme des coins. La troisième couche assemble des coins pour faire des quadrilatères. « Au fur et à mesure que l’on monte dans les couches, dont le nombre peut atteindre jusqu’à 50, les motifs qui sont capturés par chacune des unités sont de plus en plus abstraits et de haut niveau », explique M. LeCun.

« Les réseaux convolutifs qui sont utilisés à l’heure actuelle pour les systèmes de pilotage automatique de voiture, le traitement d’images médicales, la reconnaissance de visages et d’objets par Facebook, Google et autres sont très grands, car ils sont entraînés à classifier plusieurs milliers de catégories, dont certaines sont assez obscures, comme les races de chiens et les espèces de plantes. Chaque tâche de reconnaissance d’image fait des dizaines de milliards d’opérations », souligne-t-il.

Facebook

Actuellement, Facebook utilise deux réseaux de neurones convolutifs : un premier qui reconnaît les objets et un second qui identifie les personnes — notamment vos amis — dans le milliard d’images et plus que les utilisateurs téléchargent chaque jour sur Facebook. Le système sélectionne ensuite la centaine de pièces d’information les plus susceptibles d’intéresser l’utilisateur chaque jour. « Le système doit donc comprendre le contenu, savoir de quoi parle un texte, savoir ce que représente une image ou une vidéo, et apparier ces contenus aux champs d’intérêt des utilisateurs, afin de fournir un flux d’information personnalisé à chaque utilisateur. Le système peut même aider les non-voyants à avoir une idée d’une image qu’ils ne peuvent pas voir en verbalisant le contenu de l’image », souligne le directeur du laboratoire de Facebook (FAIR).

Apprentissage par renforcement

Actuellement en plein développement, l’apprentissage par renforcement est une autre approche qui permettra de produire des robots réellement intelligents, croit Joëlle Pineau, professeure à l’École d’informatique de l’Université McGill, où elle dirige le Reasoning and Learning Lab.

« Cette approche s’inspire de la psychologie, ainsi que des idées de Pavlov et ses collègues, qui nous disent qu’un agent peut apprendre beaucoup de choses en explorant son environnement et en observant les effets de ses actions. Il s’agit d’un apprentissage par essais-erreurs en temps réel. De ces essais-erreurs, l’agent développe une meilleure compréhension de ses actions, qui éventuellement lui permettra de choisir les actions appropriées à chaque situation », explique-t-elle.

Les avancées dans l’apprentissage par renforcement ont notamment permis en mars de 2016 à une machine intelligente, dénommée AlphaGo, de battre Lee Sedol, le champion du monde du jeu de go, un jeu de stratégie d’origine chinoise. « Un résultat spectaculaire, car plusieurs experts en intelligence artificielle avaient prédit quelques mois avant l’événement qu’il faudrait encore une dizaine d’années avant d’avoir un système intelligent qui pourrait se mesurer au champion humain. Or, en l’espace de quelques mois, ça a été fait », a rappelé Mme Pineau avant de préciser que le système AlphaGo fonctionne grâce à « une combinaison d’apprentissage profond, qui a permis d’analyser ce qui se passait dans le jeu, et d’apprentissage par renforcement, qui a permis au système de choisir les stratégies. Cette fusion des deux approches est une voie qui sera explorée dans les prochaines années, affirme Mme Pineau tout en donnant l’exemple de la voiture autonome. L’apprentissage profond va servir à comprendre son environnement, mais ce n’est pas suffisant. Il faut aussi savoir comment choisir la trajectoire de l’automobile. Encore une fois, ce sera un croisement entre l’apprentissage profond et l’apprentissage par renforcement. »

Les défis à relever

« Malgré tous les progrès qui ont été faits ces dernières années, les machines sont encore très, très bêtes, malheureusement », avoue Yann LeCun. Elles sont encore un peu stupides, « parce qu’elles sont entraînées avec cette méthode d’apprentissage supervisé qui les rend très spécialisées pour une tâche particulière. Elles n’ont pas vraiment d’intelligence générale qui permet de résoudre un nouveau problème sans même l’avoir jamais rencontré et qui peut ainsi servir dans toutes les situations qu’on rencontre dans l’environnement. Nous n’avons pas de méthode permettant aux machines d’acquérir le sens commun ».

Pour s’approcher de l’intelligence humaine, les scientifiques devront trouver des méthodes pour que les machines puissent s’entraîner de façon autonome, non supervisée, avec des données brutes sans avoir besoin d’étiquetage manuel. « Les humains et les animaux apprennent principalement de manière non supervisée. C’est en observant le monde et ce qui s’y passe qu’ils comprennent comment les choses fonctionnent et qu’ils apprennent à prédire ce qui va se passer dans le futur. Mais on ne sait pas très bien faire ça. Les machines échouent à prévoir à long terme. Mais on y travaille d’arrache-pied », fait savoir M. LeCun.

Parviendrons-nous à égaler le cerveau humain ?

« On a des machines spécialisées qui, dans certains domaines très spécialisés, sont bien meilleures que les humains. À la boutique de jouets du coin, on peut acheter pour 30 $ une petite machine qui saura vous battre à plates coutures aux échecs. Cette machine est plus intelligente que vous aux échecs. D’ici cinq à dix ans, les machines seront probablement plus fiables que les humains pour conduire des voitures, elles auront moins d’accidents, du moins dans les situations simples, fait remarquer Yann LeCun. Par contre, ça prendra beaucoup de temps avant d’obtenir une intelligence générale, voire supérieure à celle de l’humain, dans tous les domaines. Il nous faudra résoudre le problème de l’apprentissage non supervisé, et probablement d’autres qu’on ne voit pas pour l’instant. »

2 commentaires
  • Claude Coulombe - Abonné 14 janvier 2017 12 h 46

    Osons en créant la montagne de l'IA

    L'IA (intelligence artificielle) va changer le monde! Nous sommes plusieurs à partager le rêve d'une industrie de l'IA à Montréal.

    Il n'y a pas de raison pour que cela ne se passe pas aussi chez nous. Nous n'avons pas l'écosystème de la Silicon Valley, mais nous avons le savoir-faire, la créativité et une qualité de vie enviable. Mais ici, ce n'est pas une vallée, c'est une montagne que nous créerons! La montagne de l'intelligence!

    Monsieur Yoshua Bengio est notre Armand Bombardier du XXIe siècle. Entre nous, il aurait trouvé plus d'argent et même de reconnaissance en écoutant le chant des sirènes, Son engagement envers l'UdeM, Montréal et le Québec mérite d'être souligné.

  • Claude Coulombe - Abonné 14 janvier 2017 13 h 24

    L'avenir est aux hybrides...

    Sur le plan technique, les systèmes d'IA actuels sont encore très spécialisés, ce sont des «idiots savants», un peu comme les systèmes-experts qui n'ont pas tous été des échecs. Il y a des exemples et même québécois qui rendent encore de fiers services.

    La grande différence est qu'avec l'abondance de données grâce au Web et la puissance de calcul des ordinateurs actuels, les systèmes d'IA basés sur les statistiques qui apprennent leurs connaissances à partir d'exemples sont beaucoup plus faciles à réaliser. On parle d'apprentissage automatique ou d'apprentissage statistique (en anglais machine learning).

    Ils sont aussi souvent beaucoup plus puissants particulièrement dans la reconnaissance de formes et la perception (vision par ordinateur, reconnaissance vocale, une partie du traitement de la langue naturelle).

    L'apprentissage profond (deep learning), dont M. Bengio est un des principaux inventeurs (on parle d'une poignée de personnes dans le monde), représente une percée importante dans un type d'algorithme d'apprentissage basé sur les réseaux de neurones artificiels. Inspirés du fonctionnement des cerveaux biologiques, l'apprentissage profond est aujourd'hui au coeur des systèmes de vision par ordinateur et de reconnaissance vocale dont certains dépassent même les performances humaines.

    Hybridés avec des système d'apprentissage par renforcement, des algorithmes de recherche heuristique / stochastique, des systèmes à base de connaissances, des moteurs d'inférence, et/ou des simulations numériques, on assiste à l'émergence de systémes d'IA (toujours très spécialisés / idiots savants) mais capables de prouesses inimaginables comme la victoire d'AlphaGo (4 parties à 1) contre un champion mondial du jeu de Go ou la mise au point de voitures autonomes.

    À très long terme, car il n'y a pas d'impossibilité matérielle, on peut imaginer des systèmes d'IA plus proches du comportement d'un animal voir de celui d'un humain.