Ces algorithmes qui nous divisent et nous polarisent

Il ne faudrait pas croire que le Québec et le Canada sont épargnés par cette polarisation sur les réseaux sociaux, accrue depuis le passage de Donald Trump à la Maison-Blanche, estime le professeur de journalisme à l’UQAM Patrick White. Sur la photo, des citoyens lors d’une manifestation, samedi, à Montréal, contre les mesures sanitaires imposées par Québec.
Photo: Graham Hughes La Presse canadienne Il ne faudrait pas croire que le Québec et le Canada sont épargnés par cette polarisation sur les réseaux sociaux, accrue depuis le passage de Donald Trump à la Maison-Blanche, estime le professeur de journalisme à l’UQAM Patrick White. Sur la photo, des citoyens lors d’une manifestation, samedi, à Montréal, contre les mesures sanitaires imposées par Québec.

Ils se cachent derrière ce que vous voyez sur votre fil Facebook ou Instagram et choisissent ce que vous verrez sur TikTok ou sur YouTube : les algorithmes, formules secrètes des réseaux sociaux, sont suspectés de contribuer au climat de polarisation de notre ère numérique. En tentant de recommander moins de contenu problématique à leurs usagers, l’arme privilégiée des grands acteurs du Web repose sur… d’autres algorithmes.

Si vous regardez une vidéo sur YouTube, les chances sont bonnes que le contenu vous ait été suggéré par un algorithme, comme environ 70 % de tout ce qui est vu sur la plateforme. « Le système de recommandation est évidemment très important pour YouTube. Quelque 500 heures de contenu sont publiées par les usagers toutes les minutes. On se fie à notre système pour diriger les gens vers les sujets auxquels ils s’intéressent », explique au Devoir Farshad Shadloo, directeur des communications de YouTube.

Que se passe-t-il si ces « sujets d’intérêt » glissent vers de la désinformation, de la misogynie ou du racisme ? Une enquête du New York Times a conclu que l’algorithme de recommandation de YouTube est susceptible de suggérer du contenu toujours plus extrême. Al Jazeera a même avancé qu’une chaîne d’extrême droite canadienne comptant 1,5 million d’abonnés jouerait un rôle dans cette spirale de radicalisation. Son reportage lui a valu une poursuite de Rebel Media, plus tard invalidée par un juge ontarien.

Officiellement, YouTube nie que son outil de recommandation ait pu contribuer à créer des « chambres d’écho », ces cercles fermés en ligne où prévaut une opinion unique. « On reconnaît qu’il y a des préoccupations sur le fait que les algorithmes de YouTube contribuent aux chambres d’écho. [Mais] il n’y a pas de consensus dans les recherches que cela se produise », souligne M. Shadloo.

Cela n’a pas empêché YouTube de modifier lourdement son outil de recommandation depuis 2019 pour y exclure le « contenu limite » (« borderline »), celui qui flirte avec la violation du guide de conduite sans franchir la frontière de l’interdit. Par exemple, une vidéo qui allègue que la Terre est plate constitue un « contenu limite ».

« Il n’y a personne à YouTube qui s’assoit pour déterminer si c’est du contenu limite ou non. Tout ça se fait de manière algorithmique », précise Farshad Shadloo, qui soutient que le nombre de visionnements de ce type de contenu a diminué de 70 % en deux ans, puisque moins massivement recommandé. Déjà, depuis 2017, il n’est plus possible pour les producteurs de vidéos qui enfreignent les règles d’être « monétisés », soit d’obtenir une rémunération au volume des clics. Une politique de trois avertissements est désormais en vigueur : après deux suspensions pour violation des règles, la troisième a pour conséquence de bannir le compte.

YouTube n’est pas le seul réseau social à se préoccuper de ce qu’il recommande à ses usagers. Facebook a par exemple récemment revu ses algorithmes de suggestion des groupes afin de restreindre la visibilité des groupes de catégorie « civique et politique », jugés plus polarisants. Cela restreint leur portée, sans toutefois les censurer.

Des choix polarisants

Ces améliorations des algorithmes sont en quelque sorte un aveu qu’ils étaient pour quelque chose dans le climat actuel d’extrême polarisation, croit Guillaume Chaslot, ingénieur français spécialisé en intelligence artificielle, dont le travail consistait, jusqu’en 2013, à créer les algorithmes de YouTube. Selon lui, l’obsession des plateformes à garder captifs les internautes a eu pour conséquence de monter les citoyens les uns contre les autres.

« Si le contenu clivant fait passer plus de temps aux gens sur les plateformes que le contenu sympathique, eh bien, forcément, l’algorithme qui favorise le temps de vue va favoriser le contenu clivant. Donc, on voit de nombreux exemples de contenus qui ne seraient pas naturellement aussi partagés », explique Guillaume Chaslot en entrevue​.

Aujourd’hui militant pour la transparence des algorithmes et fondateur d’AlgoTransparency, il rappelle les dangers de ne rien connaître des mécanismes qui choisissent ce que nous voyons en ligne, en particulier pour la plus jeune génération, accro à TikTok. La bonne marche de notre démocratie en dépendrait.

« Si on ne fait rien, on va continuer à avoir une société qui se fracture et qui se divise en petits groupes, qui se polarise et qui ne se parle plus. Ce sera les républicains contre les démocrates, les hommes contre les femmes, les gens d’origine X contre les gens d’origine Y. Ça va continuer à augmenter et rendre la communication extrêmement difficile. »

Des effets réels

Il ne faudrait pas croire que le Québec et le Canada sont épargnés par cette polarisation sur les réseaux sociaux, accrue depuis le passage de Donald Trump à la Maison-Blanche, croit le professeur de journalisme à l’UQAM Patrick White. « Ce que je constate, ce sont les agressions envers les journalistes sur le terrain, ce qui est un nouveau phénomène depuis deux ou trois ans. Cette violence-là, on la voit surtout en ligne contre les femmes du journalisme […] C’est l’impact direct de la polarisation du discours public, c’est très, très clair. »

Il ajoute que, selon la littérature scientifique, les algorithmes des grands réseaux sociaux favorisent des contenus extrémistes, « d’extrême gauche et d’extrême droite ». Or, la polarisation est beaucoup plus complexe que la simple question des chambres d’écho.

Si on ne fait rien, on va continuer à avoir une société qui se fracture

 

Une recherche de l’Université Duke menée en 2018 tend à démontrer que la polarisation augmente en fait avec l’exposition à des opinions contraires sur les réseaux sociaux. Chose certaine, les gouvernements demandent de plus en plus de comptes aux réseaux sociaux, comme le projet annoncé par le gouvernement Trudeau de combattre le discours haineux en ligne ou les fréquentes convocations des responsables de médias sociaux devant le Congrès américain.

« Sur le plan politique, il y a une réponse qui se prépare pour mettre au pas les médias sociaux ou les forcer à être davantage proactifs dans la polarisation des contenus », indique Patrick White.

Qu’en est-il de la chaîne YouTube canadienne controversée Rebel Media, avec son million et demi d’abonnés ? YouTube a cessé sa monétisation à la fin de mars, mais n’a pas caractérisé son contenu de « limite », a appris Le Devoir. Cela signifie que ses vidéos sont encore recommandées aux internautes.

La chaîne a reçu un seul avertissement, le 14 avril, pour une vidéo qui violait son règlement concernant l’information sur l’intégrité de l’élection présidentielle américaine. Elle s’est vue empêchée de publier quoi que ce soit pendant une semaine, mais ses autres vidéos sont restées accessibles.

À voir en vidéo