Réduire la haine sur Internet

«La récente insurrection à Washington ainsi que l’attentat à la Grande Mosquée de Québec, dont nous commémorons le quatrième anniversaire cette semaine, sont issus de la même problématique: une radicalisation en ligne suivie d’attaques contre des victimes bien réelles», écrit l'auteur.
Photo: Jacques Boissinot La Presse canadienne «La récente insurrection à Washington ainsi que l’attentat à la Grande Mosquée de Québec, dont nous commémorons le quatrième anniversaire cette semaine, sont issus de la même problématique: une radicalisation en ligne suivie d’attaques contre des victimes bien réelles», écrit l'auteur.

Internet permet une plus grande participation à la sphère publique. La technologie numérique fournit aux citoyens de nouveaux moyens de s’exprimer, de participer à la vie politique, d’interagir avec leurs élus et de tenir les pouvoirs responsables.

Mais comme nous l’avons tous constaté lors de la récente attaque contre le Capitole à Washington, notre espace public peut également être contaminé par la haine et la désinformation. Il s’agit d’un des paradoxes troublants de notre époque. Le modèle d’affaires des géants de l’Internet amplifie le problème parce que leurs algorithmes nous servent exclusivement l’information que nous voulons consommer, sans égard aux faits.

La récente insurrection à Washington ainsi que l’attentat à la Grande Mosquée de Québec, dont nous commémorons le quatrième anniversaire cette semaine, sont issus de la même problématique : une radicalisation en ligne suivie d’attaques contre des victimes bien réelles.

Le printemps dernier, le Forum des politiques publiques a réuni sept éminents citoyens, dont l’ancienne juge en chef de la Cour suprême, la très honorable Beverley McLachlin, Julie Caron-Malenfant, directrice générale de l’Institut du Nouveau Monde, et Jean Larose, de la communauté autochtone, pour examiner les moyens de « réduire le tort » sur Internet tout en protégeant la liberté de parole.

Les trente heures qu’ils ont passées à écouter les experts, les témoins, et à délibérer ont nourri les conclusions de leur rapport au FPP : « Diminuer le tort : un programme en six étapes pour protéger l’expression démocratique en ligne ». Ce rapport s’est également inspiré du travail parallèle d’une assemblée de citoyens formée de 42 personnes représentatives de la population.

Une approche équilibrée

Leurs six recommandations constituent un programme qui permet de s’attaquer au problème dans une perspective canadienne.

Un premier constat s’impose. Le système actuel ne fonctionne pas et les institutions publiques doivent intervenir au nom de l’intérêt public. Le gouvernement doit agir davantage pour protéger les Canadiens des préjudices qu’ils pourraient subir en ligne. Il doit toutefois se garder de tomber dans une censure exagérée du contenu. Cela appelle une approche équilibrée.

Comme première mesure, la Commission recommande l’adoption d’une loi assujettissant les entreprises numériques au devoir d’agir de manière responsable. Ce devoir s’appliquerait aux plateformes, y compris les réseaux sociaux, les grands groupes de messagerie, les moteurs de recherche et autres opérateurs Internet impliqués dans la diffusion de contenus générés par les utilisateurs et les tiers.

Ce devoir d’agir de manière responsable serait régi par un nouvel organisme de réglementation investi par le devoir de servir l’intérêt public. Il aurait la responsabilité de placer la modération des contenus et la gouvernance des plateformes au-delà de la juridiction exclusive du secteur privé. Ses décisions seraient basées sur un code de conduite, fondées en droit et soumises à un processus de révision.

Cet organisme de réglementation s’appuierait sur deux nouvelles entités : un conseil de médias sociaux consultatif qui l’aiderait à formuler des politiques et un tribunal électronique qui permettrait d’entendre les litiges rapidement. Le conseil de médias sociaux regrouperait des représentants des citoyens, de la société civile et de l’industrie et ferait des recommandations à l’organisme de réglementation, notamment sur le code de conduite.

Les plateformes seraient également soumises à des mesures de transparence à propos de leurs algorithmes et de l’utilisation qu’elles font des données personnelles de leurs utilisateurs.

Enfin, bien que la Commission ne favorise pas des lois qui obligent le retrait de contenu de la part des plateformes, comme on en voit en Europe, elle fait une exception pour toute publication qui représente une menace pour la santé ou la sécurité des personnes visées.

Le modèle proposé par les sept commissaires reconnaît le rôle du gouvernement et la place du citoyen dans la gouvernance d’Internet, exige des plateformes transparence et responsabilité et accorde aux victimes de contenu haineux les moyens de se faire entendre et d’obtenir justice.

À voir en vidéo