Des groupes Facebook moins visibles, mais pas muselés

Dans l’objectif de restreindre la liberté d’expression «le moins possible», Facebook indique ne pas souhaiter censurer tout le contenu problématique généré par ses usagers.
Photo: Jenny Kane Associated Press Dans l’objectif de restreindre la liberté d’expression «le moins possible», Facebook indique ne pas souhaiter censurer tout le contenu problématique généré par ses usagers.

Préparez-vous à voir moins de chicanes politiques sur votre fil Facebook. Fortement critiqué dans le monde pour son inaction à contrer la désinformation, le réseau social met à l’essai au pays un changement dans son algorithme qui restreint la portée des groupes controversés et de vos amis mal informés qui en sont membres, sans toutefois les museler.

« Ça ne veut pas dire, juste parce qu’on peut écrire quelque chose sur Facebook, qu’on devrait nécessairement bénéficier de la distribution de Facebook », résume Kevin Chan, directeur mondial et chef de la politique publique à Facebook Canada, en entrevue avec Le Devoir en marge de différentes annonces du réseau social sur sa lutte contre la désinformation et son engagement auprès de médias d’information.

Dans l’objectif de restreindre la liberté d’expression « le moins possible », Facebook indique ne pas souhaiter censurer tout le contenu problématique généré par ses usagers, comme les informations fausses ou douteuses qui ne sont ni illégales ni strictement interdites par ses règles internes. La plateforme choisit plutôt de s’attaquer à la visibilité de certains groupes « civiques et politiques » (et ainsi à celle de leurs membres) pour les risques d’y voir des propos qui se situent dans cette zone grise. L’algorithme diminue les chances que leurs publications apparaissent dans le fil de leurs abonnés, et bloque depuis la mi-mars leur recommandation auprès du reste des internautes. Il y a environ un an, Facebook avait fait un premier test au Canada de réduction de la portée du contenu politique, arguant que ses usagers préféraient en voir moins souvent.

Contenu dommageable

« On fait une distinction à Facebook entre le droit d’expression et le droit à une tribune », explique Kevin Chan. Il précise ne pas mettre dans le même panier l’émission de propos trompeurs à celle d’opinions fausses ou mal informées. Autrement dit, il sera toujours possible d’écrire ce que bon nous semble sur Facebook, même si cela est visiblement faux ou scandaleux, la plateforme ne retirant que le contenu le plus dommageable, comme d’affirmer que le coronavirus n’existe pas ou que le javellisant peut vous en guérir. Cela, au risque de continuer à voir de nombreuses publications et commentaires qui entretiennent un doute sur les mesures sanitaires, par exemple.

« Facebook est assis au centre de cet important débat : qu’est-ce qui est permis ou non en ligne ? Si on doit tracer une ligne, dans une démocratie, qui satisfera tout le monde, je crois que c’est aux élus de prendre cette décision », affirme Kevin Chan, en appui à la promesse du gouvernement libéral de baliser les discours haineux en ligne par une nouvelle loi.

Le réseau social devrait-il aller plus loin dans la modération de ses contenus problématiques ? Un rapport dévastateur publié par le groupe militant Avaaz le 18 mars conclut sans détour par l’affirmative. Il est allégué que la plateforme était en mesure de prévenir plus de 10 milliards de visionnements de pages propageant de la désinformation sur les élections américaines, dans les huit mois précédant le scrutin. En se basant sur des sondages, le groupe conclut que près de 100 millions d’Américains ont été exposés sur Facebook à des publications destinées à discréditer le résultat des élections américaines de novembre. Résultat : approximativement 35 % des électeurs auraient cru aux allégations infondées de fraude.

Sans vouloir commenter le rapport, qu’il dit n’avoir pas lu, Kevin Chan soutient que les mouvements sociaux sont trop complexes pour avoir été causés directement par Facebook. « La polarisation et les gens qui croient aux conspirations existaient avant Internet et avant Facebook », fait-il valoir.

« Je crois que c’est une question beaucoup plus compliquée. Nous allons faire en sorte de nous assurer que nos standards de la communauté [le livre de règles de Facebook] sont appliqués, et ensuite nous assurer que les gens ont une bonne expérience sur Facebook. »

Facebook est assis au centre de cet important débat : qu’est-ce qui est permis ou non en ligne ?

 

Or, une autre organisation internationale met en doute ces bonnes intentions affichées du réseau social en ligne. En France, Reporters sans frontières (RSF) a pris la voie judiciaire en déposant une plainte, lundi dernier, en vertu des règles de protection des consommateurs. Selon RSF, les prétentions de responsabilité de Facebook quant au contenu publié sont trompeuses et mensongères, puisque l’entreprise californienne laisserait dans les faits libre cours à la désinformation et à la haine sur sa plateforme.

« J’ai cet emploi depuis six ans, et ça ne décrit pas ma réalité, se défend Kevin Chan. La réalité est que nous sommes profondément engagés dans la modération du contenu. Pour vous montrer le défi que ça représente, pour toutes les décisions que nous prenons sur le contenu, il y aura des personnes qui disent qu’on en enlève trop, et d’autres qui disent qu’on en laisse trop. »

En préparation des prochaines élections fédérales, dont la date du déclenchement est imprévisible étant donné le contexte de gouvernement minoritaire, Facebook dit concevoir une « approche faite au Canada » pour gérer la désinformation en ligne qui pourrait survenir. Même si M. Chan n’a pas voulu en révéler les détails, il affirme que la plateforme respectera toutes les lois du pays et travaillera en partenariat avec Élections Canada.

Les autorités publiques ont aussi été mises à contribution dans la stratégie de Facebook pour lutter contre la désinformation sur la pandémie de COVID-19, comme en redirigeant les internautes vers le site de l’Agence de la santé publique du Canada. Le site a d’ailleurs invité son administratrice en chef, la Dre Theresa Tam, à répondre aux questions des internautes lors d’un événement en direct qui aura lieu mercredi.

À voir en vidéo