Passer à la version normale du sitePasser à la version large du siteTaille d'écran
  • Facebook
  • Twitter
  • RSS
  • Amis du Devoir
    Connectez-vous
    25e Conférence internationale World Wide Web

    Deux visions pour rendre le Web plus «intelligent»

    13 avril 2016 | Petko Valtchev et Roger Nkambou - Professeurs au Département d’informatique de l’UQAM | Médias

    Notre proximité avec le Web est maintenant telle qu’on ne se rend pas compte des profonds changements qui sont en train de s’opérer. En effet, nous assistons, à notre insu, à la transformation du Web tel qu’on le connaît en un réseau encore plus puissant doté de sa propre intelligence. C’est ce qu’on appelle le Web sémantique, un système révolutionnaire qui, en exploitant des « connaissances », sera capable de mieux cerner le contenu des documents et le sens de nos requêtes. Cette transformation a été imaginée par nul autre que l’inventeur du Web et leader du W3C, le consortium Web, Tim Berners-Lee.

     

    S’il y a un mot qui caractérise le Web de demain, c’est bien l’intelligence — dans le monde académique comme dans l’industrie du Web, on cherche à augmenter la capacité des applications Web pour nous assister, nous les humains, dans nos activités quotidiennes.

     

    Pour illustrer les défis que les moteurs de recherche tels Google, Bing, Yahoo, Yandex ou Baidu — applications Web par excellence — doivent affronter, prenons une requête simple. Imaginons donc que la question est si, à la suite de la visite de notre premier ministre, le président américain a aimé le plat national québécois (servi au dîner officiel) : « Obama aime-t-il la poutine ? »

     

    Les limites du Web actuel ressortent clairement dans les réponses : comme les moteurs de recherche repèrent les documents en détectant des mots-clés au sein de ceux-ci, il leur est difficile de distinguer les mentions du plat traditionnel de celles du président russe. En d’autres mots, ces moteurs n’ont pas accès au sens des mots, mais les voient plutôt comme de séquences de caractères.

     

    Il est maintenant acquis que pour éviter les pièges de la langue, les applications Web doivent avoir un accès ne serait-ce que partiel aux significations des documents, soit leur sémantique. Cependant, si cet objectif ne fait pas de doute, les opinions quant à la façon d’y arriver divergent. En réalité, deux grandes visions ont émergé.

     

    Vision « structuraliste »

     

    La première, appelons-la structuraliste, a été amorcée, il y a quinze ans, par Berners-Lee et quelques collaborateurs. Elle cherche à construire au-dessus du Web une mégabase de données. Afin d’aider le repérage des documents Web, les données qui y sont mentionnées (Obama, Trudeau, Canada, etc.) sont étiquetées, puis reliées entre elles dans un réseau à l’échelle du globe, le Web sémantique. À cette fin, des étiquettes visibles uniquement pour les logiciels dédiés sont utilisées. Ainsi, dans notre exemple, une des étiquettes indiquera que « poutine » désigne un plat alors que « Obama » est un humain. Plus loin, dans un coin du Web sémantique, un schéma — ou une ontologie — exprimera le fait que les humains sont différents des plats. Fort de ces informations, un moteur de recherche sémantique ne confondra pas le président russe avec le plat à base de patates.

     

    « Vision holistique »

     

    Une autre vision, que nous qualifions d’holistique, s’est constituée par la suite. Son champion est Peter Norvig, directeur de recherches chez Google et chercheur à la NASA. Sa propre voie vers l’intelligence du Web exploite la puissance de l’apprentissage machine et l’effet big data des documents Web. En effet, les milliards de documents disponibles actuellement constituent un formidable jeu d’exemples à partir desquels il est possible d’extraire des statistiques fiables sur les suites de mots, appelées n-grammes. Sur la base des fréquences des n-grammes, des algorithmes pourront « apprendre » à construire les solutions de problèmes complexes, tels que la réponse à des requêtes Web. Dans notre cas, ils auraient établi que « aime la poutine » — puisque apparaissant le plus souvent dans des contextes gastronomiques — est incompatible avec un nom de politicien. La confusion avec le président russe est donc exclue.

     

    Notre groupe de chercheurs à l’UQAM s’est positionné à la croisée de ces deux visions : nos projets de recherche marient schémas et ontologies aux analyses de gros volumes de données sur le Web sémantique.

     

    Du 11 au 15 avril, l’UQAM accueille le grand évènement annuel du Web, la International World Wide Web Conference. Déjà à sa 25e édition, la conférence est le lieu de discussion de toutes les futures tendances dans le développement du Web. Et, fait remarquable cette année, les deux visions y seront bien représentées, car aussi bien Tim Berners-Lee que Peter Norvig donneront des conférences fort attendues.













    Envoyer
    Fermer
    Les plus populaires


    Abonnez-vous à notre infolettre. Recevez l'actualité du jour, vue par Le Devoir.