La haine virale

Il a fallu dix-sept minutes à Facebook pour retirer, à la demande de la police, la vidéo diffusée en direct des meurtres dans les mosquées de Christchurch, en Nouvelle-Zélande. C’est long, assez long pour ceux qui veulent répandre le virus haineux dans le cyberespace.

Les réseaux sociaux ont été développés selon un modèle de « plateforme », une configuration conçue comme un espace virtuel dans lequel les usagers ont la liberté de mettre en ligne ce que bon leur semble. Par contraste, les médias fonctionnent sur le postulat que les informations destinées à être publiées doivent être validées par une personne ayant autorité, un rédacteur en chef qui, aux termes de la loi, est responsable des contenus fautifs.

Les réseaux sociaux sont conçus à partir de l’idée que l’usager est le maître de ce qu’il va voir et de ce qu’il va « partager ». Pour extraire des revenus, ces plateformes proposant leurs services sans frais directs aux individus ont développé des technologies fondées sur le calcul et la valorisation de l’attention que les internautes consacrent aux différents contenus disponibles. Il en résulte un environnement en grande partie automatisé dans lequel les informations ne sont pas diffusées en fonction d’une évaluation de l’intérêt qu’elles peuvent présenter pour la collectivité, mais plutôt en fonction de l’attention qu’elles génèrent. Un environnement rêvé pour ceux qui ont de la haine à promouvoir…

Un cadre juridique favorable aux plateformes

Le cadre juridique qui prévaut aux États-Unis y est pour quelque chose. Dans ce pays où sont nés les premiers réseaux sociaux, la loi considère ces plateformes comme des lieux d’échange qui ne sont pas responsables des messages et autres contenus mis en ligne par les usagers.

Ainsi protégés contre les conséquences légales de la diffusion de propos dommageables, les réseaux sociaux se sont développés sans réelle incitation à mettre en place des configurations minimisant les risques forcément associés à un environnement où tout le monde se trouve à détenir la faculté de mettre du contenu en ligne.

En généralisant ainsi les possibilités de diffuser à la grandeur de la planète des contenus sans devoir détenir de grands moyens, le Web a ouvert de remarquables possibilités de discussions et de sursauts démocratiques. Les gens peuvent être en contact, échanger et se parler avec une facilité inédite dans l’histoire humaine. En revers de la médaille, il y a les groupes aux intentions moins nobles, animés par la haine, obsédés par les fantasmes racistes qui se sont retrouvés à bénéficier de vecteurs de diffusion d’une morbide efficacité.

Cette faculté conférée aux extrémistes de diffuser du matériel dégradant est une caractéristique inhérente aux réseaux sociaux actuels. Ce sont des plateformes qui sont conçues pour permettre le partage massif de millions d’unités d’information à la seconde. Ce ne sont pas des environnements configurés en fonction d’un modèle éditorial où la plateforme serait tenue de prévenir les dérives et d’y répondre. Dans ces environnements de réseaux sociaux, il y a peu d’examen a priori des documents mis en ligne. Le modèle repose sur le postulat que le premier responsable est l’usager qui met le contenu en ligne. L’examen de la teneur des documents a lieu a posteriori lorsqu’on en signale qui présentent des problèmes.

À l’origine, les lois limitant ainsi la responsabilité des plateformes répondaient à un souci de protéger les libertés expressives. On estimait qu’imposer aux plateformes intermédiaires comme les médias sociaux une responsabilité analogue à celle des journaux, des radios ou des télévisions reviendrait à les contraindre à l’exercice d’un contrôle par lequel ils auraient à examiner a priori tous les contenus avant leur mise en ligne.

Le modèle fondamental de ces intermédiaires d’Internet postule qu’ils ne sont tenus qu’à faire des efforts raisonnables pour écarter les contenus préjudiciables. C’est généralement pour répondre à des situations de crises engendrées par des pratiques déviantes que ces plateformes en sont venues — pour répondre aux exaspérations des décideurs politiques — à renforcer leurs pratiques d’examen des contenus.

Des lois à mettre en place

À la suite des dérapages incarnés par les diffusions d’informations trompeuses ou de contenus extrêmes, comme les vidéos de meurtres en direct et autres obscénités, les autorités de certains pays ont commencé à bricoler des mesures destinées à reconnaître des devoirs plus contraignants aux exploitants de plateformes en ligne. La croyance en l’impossibilité de réguler ce qui se passe en ligne est en train de perdre du terrain.

Mais il y a un grand retard dans le développement de lois reflétant les enjeux de la diffusion virale caractéristique d’Internet. Dans un cyberespace où les informations circulent à très grande vitesse, les pouvoirs publics doivent développer des cadres régulateurs visant les processus fondés sur les algorithmes et les technologies d’intelligence artificielle.

Internet procure des possibilités fabuleuses d’expression légitime. Mais il expose à des risques considérables. D’où la nécessité de lois protégeant aussi bien la dignité humaine que la liberté de parole.

À voir en vidéo