Un détecteur de fausses nouvelles sur votre ordinateur?

Les  diplômés de Yale Michael Lopez-Brau, à gauche, et Stefan Uddenberg ont contribué à créer le module «Open Mind».
Photo: Pat Eaton-Robb Associated Press Les  diplômés de Yale Michael Lopez-Brau, à gauche, et Stefan Uddenberg ont contribué à créer le module «Open Mind».

Une équipe d’étudiants universitaires attire l’attention d’entreprises technologiques et du Congrès américain après avoir développé un module adapté aux moteurs de recherche qui avertit les utilisateurs devant de fausses histoires tendancieuses et les guide vers des reportages plus nuancés.

Le module, appelé Open Mind, a été créé au début du mois lors d’une compétition de résolution de problème, aussi appelée « hackathon », à l’Université Yale.

L’équipe championne est formée de quatre étudiants : Michael Lopez-Brau et Stefan Uddenberg, deux étudiants au doctorat en psychologie à l’Université Yale ; Alex Cui, qui étudie l’apprentissage automatique à l’Institut de technologie de Californie ; et Jeff An, qui étudie l’informatique à l’Université de Waterloo et les affaires à l’Université Wilfrid-Laurier en Ontario.

Le groupe participait à une compétition avec d’autres étudiants pour remporter le défi lancé par la bourse de journalisme Poynter de l’Université Yale, qui demandait de trouver une solution pour contrer le phénomène des fausses nouvelles.

Moteur de recherche et réseaux sociaux

Le logiciel développé par les gagnants est conçu pour s’adapter au moteur de recherche Google Chrome. Il affiche une alerte à l’écran lorsque l’utilisateur accède à une page reconnue pour diffuser de fausses informations. Il informe aussi l’utilisateur si une histoire partagée sur les réseaux sociaux est fausse ou tendancieuse.

Et il va bien plus loin que le simple avertissement. L’outil utilise la technologie d’analyse des sentiments pour analyser toute histoire qui apparaît dans le fil d’actualité de l’utilisateur. Il analyse ensuite les acteurs clés et les orientations politiques. Le logiciel propose alors une liste d’autres articles sur le même thème, mais avec des points de vue différents.

« Disons, par exemple, qu’il y a un article très favorable à Donald Trump sur un sujet donné. Nous allons alors tenter de vous proposer autre chose un peu plus à gauche du centre. Nous allons trouver cet article-là pour vous », explique Jeff An.

L’outil rassemble aussi des données sur l’historique de recherche de l’utilisateur pour lui démontrer, à l’aide de graphiques, s’il consulte de l’information d’un seul côté du spectre politique. Il agit comme conservateur des archives d’information et propose des points de vue opposés aux histoires que l’utilisateur a déjà consultées.

Sortir de sa bulle

L’idée est d’aider les gens à sortir de leur habitude de s’associer uniquement avec d’autres personnes qui partagent les mêmes opinions sur les réseaux sociaux et de lire les mêmes couvertures médiatiques partiales promouvant leurs croyances, résume Michael Lopez-Brau.

« Les réseaux sociaux créent des bulles. Ils font en sorte que ce soit extrêmement facile de suivre uniquement les gens qui partagent les mêmes intérêts, alors on a souvent très peu d’occasions d’être confrontés à des opinions contraires », souligne M. Lopez-Brau.

Le prix remporté par les gagnants du défi est une rencontre avec des membres du Congrès américain, le printemps prochain.

Facebook, qui commandite l’événement, dit souhaiter discuter avec les concepteurs dans le cadre de sa recherche de solution à ce problème, a indiqué la porte-parole de l’entreprise Ruchika Budhraja.

Les deux étudiants de Yale au sein de l’équipe veulent démarrer un projet de recherche à partir de leur module, afin de suivre l’évolution des recherches de certains utilisateurs volontaires pour déterminer si leurs habitudes changent.