Le métavers est montréalais
Montréalais, le métavers ? En partie, oui. Parce que l’environnement immersif auquel rêve le fondateur de Facebook et actuel p.-d.g. de Meta, Mark Zuckerberg, ne peut pas exister sans l’intelligence artificielle (IA), et qu’une bonne partie de la recherche en IA faite chez Meta a lieu dans ses laboratoires situés à Montréal.
La personne qui dirige le centre de recherche de Meta à Montréal s’appelle Joëlle Pineau. C’est une experte reconnue en apprentissage machine issue de l’Université McGill. Non seulement elle travaille avec ses collègues au sein de l’entreprise californienne, mais elle entretient également des liens avec plusieurs centres universitaires dans le monde, dont celui de Yoshua Bengio, à l’Université de Montréal.
Tout cela n’est pas anecdotique. L’apprentissage machine est cette fonction de l’IA qui permet à un système informatique d’interpréter des données de façon toujours un peu plus précise. Il y a deux semaines, Mark Zuckerberg a expliqué dans une allocution publique comment son métavers allait améliorer le sort de ses éventuels utilisateurs justement grâce à une nouvelle variante de cette technologie qui s’appelle l’apprentissage machine autosupervisé.
Selon cette approche, un système informatisé peut, sans directives provenant d’une source humaine, compléter une image incomplète à partir de seulement quelques fragments, par exemple. Le résultat produit sera peut-être imparfait, mais, si les algorithmes sont bien réglés, il devrait être étonnamment près de la vérité. C’est un pas de plus vers une forme de « raisonnement » autonome, plutôt qu’une simple exécution de processus successifs.
Bref, c’est un pas de plus vers l’intelligence artificielle. « La grosse différence est qu’on n’a plus besoin d’annoter le type de données qu’on transmet à la machine. Celle-ci déduit de quoi il s’agit selon leur structure et peut ensuite les interpréter correctement. Elle peut compléter correctement une phrase dans laquelle il manque un mot ou deux, par exemple, ou prolonger automatiquement une série de chiffres », dit Joëlle Pineau.
« C’est en bonne partie le genre de recherche qu’on fait en IA en ce moment à Montréal. »
« Bonjour, hi ! »
Joëlle Pineau ne se doutait pas, en prenant les commandes des laboratoires d’IA de Facebook à Montréal, à l’automne 2017, qu’elle piloterait le développement de la technologie qui pourrait permettre à la société qu’on appelle aujourd’hui Meta de prendre les commandes de la réalité virtuelle et augmentée.
Mais c’est le pari que fait présentement l’entreprise californienne. Car les applications concrètes que l’entreprise californienne pourrait tirer des travaux faits par ses chercheurs visent justement à rendre les environnements numériques immersifs plus invitants pour le grand public. Mark Zuckerberg a donné un bel exemple de cette simplicité lors de sa présentation publique en expliquant qu’il suffirait de demander à voix haute de créer « un monde sur une île avec de l’eau autour » pour que le métavers forme sur-le-champ un univers numérique représentant cet environnement.
Une autre expertise qui a été développée en partie à Montréal et qui pourrait se retrouver dans le métavers est celle de la traduction instantanée. Les logiciels de traduction actuels sont loin d’être exacts à tous les coups. Il suffit de visiter Google Traduction pour s’en apercevoir. Ces logiciels ont parfois le défaut de traduire les langues en passant par une langue de référence. Ainsi, ils traduiront un mot du français vers l’anglais, puis vers l’espagnol, pour effectuer une traduction du français vers l’espagnol.
Chez Meta, on rêve d’une IA plus avancée qui pourrait au contraire feuilleter la littérature d’une ou même de deux langues qui lui sont totalement inconnues et qui serait capable dans le même élan de traduire de l’une vers l’autre sans effort.
Dans un tel monde, qui a certainement un je-ne-sais-quoi d’utopique, personne ne se ferait accueillir par ce « Bonjour, hi ! » qui en irrite plus d’un. Il y aurait plutôt « Bonjour ! ». Ou « Hi ! », « Halo ! », «¡ Hola ! », bref, peu importe la langue utilisée à l’origine, l’interlocuteur entendrait les mots dans sa propre langue ou dans la langue de son choix.
Les férus de science-fiction qui se sont toujours demandé comment des civilisations issues de centaines de planètes différentes peuvent arriver à toutes se comprendre ont trouvé leur réponse : il suffit d’avoir les bons outils. Chez Meta, cet outil prend la forme d’une IA qui sera intégrée à son métavers.
Des lunettes
Le mot « métavers » lui-même est issu de la science-fiction. Il est juste assez flou pour englober à peu près tout ce qui ressemble de près ou de loin à un environnement numérique immersif. Ces jours-ci, il prend les allures d’une connexion à Internet qui se fera à partir de certains accessoires vestimentaires. Comme des lunettes, d’abord. Puis, peut-être, des gants ou une camisole. Il existe des textiles intelligents qui peuvent capter puis reproduire sur un avatar le moindre geste du corps humain. Meta travaille aussi là-dessus.
Mark Zuckerberg l’a déjà promis : des lunettes pour le métavers seront mises en marché plus tard cette année, probablement l’été prochain. Il suffira de les enfiler pour voir s’afficher devant nos yeux de l’information tirée d’Internet. Une première incursion dans le métavers, en quelque sorte.
Une des premières applications que l’on pourra y voir ? Joëlle Pineau pense à un traducteur instantané. Elle ne promet rien, mais « c’est le genre d’expérience qu’on peut imaginer faire » dans les laboratoires d’IA de Meta. Des laboratoires qui se trouvent, en partie, à Montréal.
Comme quoi le métavers n’est pas si loin de nous que ça…
Ce texte fait partie de notre section Opinion qui favorise une pluralité des voix et des idées. Il s’agit d’une chronique et, à ce titre, elle reflète les valeurs et la position de son auteur et pas nécessairement celles du Devoir.