Agir, mais sans ressac pour la liberté d’expression

Si la législation est démesurément sévère, les plateformes numériques pourraient être tentées de jouer de prudence et de censurer trop de contenu.
Photo: iStock Si la législation est démesurément sévère, les plateformes numériques pourraient être tentées de jouer de prudence et de censurer trop de contenu.

La législation que le gouvernement fédéral prépare pour lutter contre les discours haineux en ligne devra trouver une approche équilibrée, estime la Commission canadienne de l’expression démocratique (CCED). Si elle est démesurément sévère, les plateformes numériques pourraient être tentées de jouer de prudence et de censurer trop de contenu, craint-on.

Dans un rapport qui sera dévoilé mercredi — mais que Le Devoir a pu consulter —, la CCED plaide pour une « approche équilibrée et à plusieurs volets ». Celle-ci devra à la fois « réduire les préjudices en ligne » tout en « prévenant les risques d’une trop grande censure du contenu », indiquent les commissaires de cette instance mise sur pied par le Forum des politiques publiques (FPP).

« On ne veut pas laisser uniquement aux plateformes tout le pouvoir discrétionnaire de déterminer ce qui peut être publié ou non », indique en entretien Julie Caron-Malenfant, directrice générale de l’Institut du Nouveau Monde et l’une des sept commissaires qui ont produit le document. Le groupe comprend aussi l’ancienne juge en chef de la Cour suprême du Canada, Beverley McLachlin.

« On craint que, [face à la menace de] grosses amendes, les plateformes adoptent une stratégie de repli défensif et déterminent avant même une publication ce qui peut être dit ou pas publiquement, explique Mme Caron-Malenfant. Et ce repli pourrait finalement causer un préjudice important à la liberté d’expression. » Pour éviter cela, il faut « permettre à l’État et aux citoyens de participer à la discussion autour de ce qui peut être publié », dit-elle.

Impact corrosif

Le mandat confié à la CCED par le Forum des politiques publiques était justement de « trouver des moyens de réduire les discours préjudiciables sur Internet sans nuire à la liberté d’expression ». Au terme de ses travaux — et alors que l’émeute du 6 janvier au Capitole américain a remis cet enjeu au cœur du débat public —, le groupe énonce une douzaine de constats et recommandations qui ont été présentés la semaine dernière au ministre du Patrimoine canadien, Steven Guilbeault.

Dans ses constats, la CCED indique que « la montée de la haine, de la désinformation, des théories du complot, de l’intimidation et d’autres communications nuisibles en ligne mine [les acquis de la liberté d’expression] et a un impact corrosif sur l’expression démocratique au Canada ». 

Selon les commissaires, « le statu quo qui consiste à laisser la modération des contenus à la seule discrétion des plateformes n’a pas réussi à endiguer la propagation de ces préjudices ». Aussi le gouvernement doit-il jouer un rôle plus actif dans ce dossier, dit-on.

Comment ? D’abord en faisant adopter une « loi assujettissant les plateformes au devoir d’agir de manière responsable ». Pour appliquer cette loi et s’assurer que la modération des contenus n’est plus de « la juridiction exclusive des entreprises du secteur privé », un nouvel organisme réglementaire devrait être créé, soutient-on.

La Commission plaide également pour la création d’un « conseil des médias sociaux », qui jouerait un rôle de conseiller auprès de l’organisme réglementaire. Les plateformes comme Twitter ou Facebook y seraient représentées, de même que la société civile. « On pense qu’un dialogue vivant est nécessaire », note Julie Caron-Malenfant.

Pour traiter rapidement les plaintes concernant du contenu préjudiciable, la CCED prône aussi la création d’un « tribunal électronique chargé de régler en temps opportun les différends sur le contenu en ligne ».

De la même manière, Ottawa devrait mettre sur pied un mécanisme permettant le retrait rapide de tout contenu qui représente une « menace imminente à la sécurité d’une personne ». C’est l’organisme réglementaire qui s’assurerait de son application.

Autre rapport

Un deuxième rapport accompagne celui de la CCED. Le FPP avait en effet aussi demandé à une assemblée citoyenne de se pencher sur la question. Les conclusions de ses travaux recoupent dans les grandes lignes celles de la Commission.

L’Assemblée estime que « les plateformes numériques et les utilisateurs devraient être tenus pour responsables de leurs actes ».

Elle se dit « alarmée » à l’idée que les plateformes puissent « déterminer leurs propres politiques sans surveillance publique » et « particulièrement préoccupée par l’utilisation généralisée d’algorithmes qui diffusent des contenus sensationnels et qui créent des divisions ».

Dans la foulée de la publication d’un sondage démontrant la volonté des Canadiens de voir le gouvernement adopter des mesures sévères pour lutter contre les discours haineux en ligne, le ministre Guilbeault avait réitéré lundi l’intention d’Ottawa de déposer un projet de loi sous peu.

Mardi, son cabinet a indiqué qu’il étudie le rapport de la CCED. «Nous convenons qu’une action proactive de réglementation est effectivement nécessaire et que l’autoréglementation ne fonctionne pas», a dit le ministre.

À voir en vidéo