La Floride et les réseaux sociaux

Le gouverneur de Floride a récemment avalisé une loi interdisant aux réseaux sociaux de supprimer les comptes de candidats à des élections. Cette loi permet aussi à ceux qui s’estiment injustement exclus de ces plateformes en ligne de s’adresser aux tribunaux pour contester les décisions des réseaux sociaux. L’initiative émane de républicains et elle est considérée comme une réponse à l’humiliation subie par l’ex-président Donald Trump, qui a vu ses comptes Twitter et Facebook suspendus par l’une et l’autre de ces entreprises. On prévoit que cette loi sera contestée devant les tribunaux.

Ces débats américains font écho à des enjeux allant bien au-delà des frustrations de politiciens mécontents des décisions des géants du Web. C’est le statut de ces espaces virtuels devenus les places publiques de notre époque qui est en cause. Ces espaces dans lesquels circulent la parole et les échanges publics sont des propriétés privées. Cela interpelle les fondements de la protection de la liberté d’expression. Est-ce aux entreprises commerciales de réguler les débats publics ?

Lorsque sont apparues les plateformes en ligne qui accueillaient les propos, les sons et les images en provenance de pratiquement tout le monde, les législateurs de plusieurs pays ont été sensibles aux dangers de censure. Si elles devaient être tenues par la loi de répondre en tout temps des propos délictueux, les entreprises propriétaires de ces plateformes tendraient, pour se protéger, à censurer de manière préventive les contenus qui leur semblent risqués. Plusieurs États ont alors mis en place des règles afin d’éviter que les entreprises agissant comme des hébergeurs soient responsables des propos délictueux déposés en ligne par leurs usagers. Par exemple, le Québec a choisi d’appliquer l’approche de la législation européenne en affirmant dans une loi de 2001 que les intermédiaires ne sont pas a priori responsables des documents délictueux mis en ligne par les tiers. Ils peuvent l’être uniquement lorsqu’ils ont connaissance du caractère illégal du propos qui se trouve sur leur plateforme. Aux États-Unis, on est allé beaucoup plus loin avec une loi qui a été interprétée comme accordant une large immunité aux plateformes d’Internet. Celles-ci peuvent, sans crainte de poursuites, retirer un contenu à leur guise ou encore le laisser en ligne. C’est cette loi fédérale que tente de contrecarrer la loi floridienne promulguée la semaine dernière.

Des échanges moins toxiques

Les droits et les devoirs des réseaux sociaux et autres intermédiaires d’Internet doivent être mis à jour. Les dynamiques d’Internet font en sorte que les plateformes tendent à s’installer en monopoles. Il n’y a pas de réelle concurrence entre les diverses plateformes qui permettrait de donner crédit à la croyance parfois évoquée que les usagers mécontents des décisions d’une plateforme n’ont qu’à aller dans un réseau concurrent.

Comment amener les plateformes dominantes à se comporter de façon à promouvoir des échanges moins toxiques ? Il faut des règles qui les porteront à agir à l’égard des comportements notoirement dangereux, comme les activités criminelles, les pratiques de désinformation et les activités concertées pour induire malicieusement en erreur. Mais il ne saurait être question d’instituer un « bureau de censure » qui viendrait unilatéralement supprimer tel ou tel contenu en se fondant sur les pressions populaires. Par exemple, le bannissement de Donald Trump par Twitter et Facebook procède de décisions commerciales d’entreprises désireuses de préserver leur capital de crédibilité. C’est trop imprévisible pour réguler des espaces d’expression devenus aussi importants pour la vie démocratique.

Il faut plutôt instituer des législations qui assureront une capacité indépendante d’expertiser les processus par lesquels les contenus circulent en ligne. Les mécanismes présidant à l’aiguillage et à la présentation des contenus à l’usager sont automatisés. Les plateformes utilisent de puissants algorithmes et des technologies fondées sur l’intelligence artificielle (IA) pour extraire de la valeur des activités de tous ceux qui interagissent dans l’environnement connecté. C’est à ce niveau qu’il est nécessaire d’assurer une régulation publique, transparente et démocratique. Pour l’heure, ce sont les procédés fondés sur des algorithmes et sur l’IA qui, par défaut, déterminent ce que nous avons le droit de voir, de lire et d’entendre sur les plateformes en ligne. En somme, voilà des espaces publics d’échanges qui sont régulés par des dispositifs opaques capables de censurer sans que l’on sache pourquoi. Les législations doivent rétablir la transparence.

Pour mettre en place une régulation démocratique des processus techniques utilisés par les plateformes, il faut des lois souples qui accordent aux régulateurs publics une capacité d’évaluer les enjeux que posent les dispositifs connectés. Parmi les approches possibles, il y a la mise en place d’un organisme doté de pouvoirs afin d’exiger des informations sur les logiques de fonctionnement des algorithmes. Certains auteurs évoquent même l’idée que les processus fondés sur les algorithmes et l’IA impliquent des enjeux si complexes qu’ils devraient faire l’objet d’un encadrement similaire à ceux d’autres objets complexes, comme les médicaments.

Les frustrations des politiciens exclus d’une plateforme ne sont qu’un aspect des enjeux associés au statut et aux responsabilités des réseaux sociaux. Il faut doter ces espaces virtuels publics d’un encadrement protégeant les libertés expressives et les autres droits de tous les citoyens. La loi de Floride est une réponse vraiment trop rudimentaire pour des enjeux aussi fondamentaux.

À voir en vidéo