Plateformes en ligne: réguler sans censurer
La plupart du temps, les gens diffusent et échangent sur Internet des propos qui ne contreviennent à aucune loi. Mais ces informations voisinent les infox, le harcèlement ou des propos fautifs diffusés dans l’intention de manipuler. L’automne dernier, les Amis de la radiodiffusion canadienne, une association vouée à la promotion d’un environnement médiatique de qualité, publiait une étude sur les « plateformes nocives ». On y décrit les principaux écueils découlant du régime de laisser-faire que les lois de plusieurs pays ont à ce jour accordé aux réseaux sociaux. Constatant les enjeux que les usages déviants des réseaux sociaux impliquent pour la santé démocratique, le rapport Yale appelait l’an dernier le gouvernement canadien à mettre en place des règles du jeu pour protéger les échanges essentiels aux délibérations démocratiques. Le ministre du Patrimoine a fait connaître son intention de déposer un projet de loi pour encadrer les plateformes en ligne.
Mais quel type de règles devrait mettre en place un tel projet de loi pour remédier aux tares qui empoisonnent la communication en ligne ? L’économiste Joëlle Toledano observait qu’« on ne peut pas se contenter de fixer des règles de modération, quelles qu’elles soient, sans se préoccuper en amont de ce qui les rend nécessaires, à savoir les algorithmes programmés pour mettre en avant les contenus. Même si on parvient à obtenir un certain nombre de vérifications a posteriori, on ne peut traiter la modération des réseaux sociaux sans s’attaquer à leur modèle économique ». Il ne s’agit donc pas de créer un « bureau de censure » ou encore moins une version 2.0 du tribunal d’inquisition. Il faut plutôt viser les pratiques qui rendent rentable la dissémination de messages délictueux.
Protéger l’intégrité des échanges
Dans cet esprit, le récent rapport de la Commission canadienne de l’expression démocratique fait un ensemble de propositions pour la mise en place de mécanismes destinés à protéger l’intégrité des échanges en ligne. Ce groupe d’experts, au nombre desquels il y a le doyen de la Faculté de droit d’Ottawa et l’ancienne juge en chef de la Cour suprême, détermine les mesures à mettre en place pour protéger les Canadiens contre les préjudices en ligne sans tomber dans la censure. On y rappelle que les plateformes ne sont pas des diffuseurs neutres. Les plateformes structurent le contenu en fonction de leurs intérêts commerciaux. Elles doivent donc avoir une plus grande responsabilité pour les préjudices qu’elles se trouvent à amplifier ou à propager. La Commission propose d’imposer aux messageries et aux plateformes de réseaux sociaux un devoir légal d’agir de façon responsable. Cela vaudrait aussi pour les moteurs de recherche et d’autres opérateurs impliqués dans la circulation de contenus générés par les utilisateurs.
Pour assurer l’implantation de ces nouvelles obligations, un organisme public de réglementation serait habilité par la loi à superviser la gouvernance des plateformes. Il exercerait aussi une surveillance des activités de modération des contenus en tenant compte de la diversité des modèles d’interactions en ligne. Un tel organisme surveillerait les décisions relatives aux procédés (souvent automatisés) par lesquels les plateformes laissent circuler en ligne les sons, les textes et les images. Les décisions d’une telle instance réglementaire devront être fondées sur les lois et sujettes à un processus transparent de révision.
La Commission préconise aussi d’assurer un dialogue inclusif sur les politiques et pratiques de gouvernance des plateformes, y compris la modération des contenus. Un Conseil de médias sociaux qui regrouperait à une même table les plateformes, les citoyens et les autres parties intéressées serait chargé d’organiser un tel dialogue. De même, l’organisme de réglementation et le Conseil de médias sociaux auraient l’autorité pour encadrer la gestion des données ainsi que le pouvoir d’exiger de l’information sur le fonctionnement des dispositifs de valorisation des données massives collectées et compilées.
Pour remédier efficacement aux pratiques illicites et aux contenus préjudiciables qui circulent sur les réseaux, il faut que les régulateurs étatiques aient la capacité de traiter les plaintes avec célérité. La Commission recommande donc la mise en place d’un tribunal électronique pour faciliter et accélérer le règlement des différends, de même qu’un processus visant à traiter les plaintes avant que le tort causé soit devenu irréparable ou engendre une menace imminente à la santé ou à la sécurité.
Même s’il faut souhaiter qu’en première ligne, les réseaux sociaux et autres plateformes fassent tout leur possible pour prévenir les dérapages les plus évidents, ces entreprises commerciales n’ont pas la légitimité pour décider ce qui est ou non conforme aux lois. Il faut se rappeler qu’il y a toujours des règles qui limitent les activités expressives. Si ces règles ne sont pas établies par les lois étatiques, ce sont les entreprises qui, par défaut, se trouveront en position de juger, en fonction de leurs propres intérêts, si les propos, les sons et les images dépassent les limites du tolérable.
C’est donc un régulateur proactif qu’il importe de mettre en place. Un organisme public doté de capacités autonomes de recherche et de l’expertise nécessaire afin de recenser les pratiques abusives et d’assurer la responsabilisation des plateformes Internet. Notamment les entreprises qui ont recours à des processus de traitements massifs de données au moyen d’algorithmes et de techniques fondées sur l’intelligence artificielle. En raison du caractère planétaire de plusieurs plateformes, de telles instances de régulation étatiques devront fonctionner en réseaux collaboratifs. Il est irréaliste de s’attendre à ce que chacun des États applique en vase clos des régulations qui concernent des entités qui opèrent par-delà les frontières. Les États doivent fonctionner en réseau pour réguler efficacement les activités planétaires du monde numérique. Il est urgent de passer de l’État en vase clos à l’État en réseau.