Contre les infox, la responsabilité numérique
Deux rapports publiés récemment en France et au Canada proposent des pistes d’action contre la désinformation. Au Canada, l’Assemblée citoyenne sur l’expression démocratique met en garde contre la perspective « d’une place publique numérique inondée d’arnaques qui escroquent les consommateurs et de campagnes sophistiquées qui déforment et manipulent l’opinion publique ». En France, le rapport Les lumières à l’ère numérique, rédigé à la demande du président Emmanuel Macron par un groupe d’experts dirigés par Gérald Bronner (auteur de La démocratie des crédules), met en garde contre les dangers de la désinformation et, à l’instar du rapport canadien, présente des pistes d’action.
Les changements dans les conditions de production, de diffusion et de consommation des informations ont accentué les inquiétudes quant à la facilité avec laquelle circulent les informations relayant des faussetés. En France, des spécialistes de différents champs du savoir se sont employés à mettre au jour les causes plurielles du phénomène et des pistes d’action. Pour sa part, la Commission canadienne met en relief les constats de citoyens sur les conséquences de la désinformation.
Experts et citoyens font les mêmes constats : la disponibilité des fausses informations (les infox) met en danger la possibilité d’échanger, de se contredire, de débattre. Le rapport canadien explique que la désinformation accroît la polarisation. Elle accentue la perception de menaces entre les groupes. Ces deux rapports font un bilan des causes du phénomène de la désinformation, notamment sur Internet. On cible surtout ce qu’il faut faire afin de limiter les effets délétères de la circulation des infox. Car une fois qu’on a constaté et déploré le fléau, il importe de proposer des pistes d’action.
Ni diabolisation ni censure
Dans ces rapports, on aborde la désinformation non pas en diabolisant les réseaux sociaux, mais plutôt en cherchant des solutions. On appelle à moderniser les conditions de la responsabilité numérique. On propose des moyens de civiliser ces espaces publics virtuels, notamment en luttant contre le développement de la haine sur les réseaux sociaux. En plus de la mise à niveau des lois, notamment grâce à l’instauration de régulations des processus algorithmiques, on appelle au renforcement des programmes d’éducation aux médias.
Le rapport français dresse un état des mécanismes psychosociaux qui rendent les individus perméables aux fausses informations. On constate que la plupart des gens sont tout à fait capables de distinguer les informations fiables des faussetés. Mais certaines d’entre elles parviennent à se frayer un chemin dans les esprits et peuvent alors engendrer des dommages aussi bien pour les individus que pour la collectivité. D’où l’importance de renforcer l’esprit critique et l’éducation aux médias. À l’ère numérique, les médias se déclinent en multiples modèles, qui vont du site d’information travaillant selon de hauts standards aux multiples contributions véhiculées dans les médias sociaux. Un univers aussi varié requiert des actions à plusieurs niveaux.
Le rapport français relève que la configuration des réseaux sociaux, où les informations sont noyées dans des masses de séquences destinées à divertir, est loin d’encourager à la vigilance cognitive, ce rempart pourtant essentiel contre la crédulité. Certaines logiques algorithmiques contribuent à façonner les croyances ou à les conforter. Par exemple, la façon dont les processus algorithmiques ordonnancent l’information proposée aux usagers répond surtout à des impératifs commerciaux visant à maximiser l’attention de ces usagers. De même, la façon dont les réseaux sociaux altèrent les perceptions quant à la représentativité et à la popularité des points de vue contribue à accentuer la prévalence de certains discours extrêmes, pourtant minoritaires.
La recherche du profit est considérée comme l’un des principaux moteurs de la désinformation. Le rapport français expose que la publicité programmatique (celle qui utilise des algorithmes générés par une intelligence artificielle pour déterminer le meilleur placement publicitaire, par type de produit et de public cible) constitue une source importante de revenus pour les artisans de la désinformation. D’où la recommandation de responsabiliser les acteurs de l’industrie de la publicité programmatique. De même, les plateformes participatives ainsi que les chaînes monétisées comme celles qui se retrouvent sur YouTube devraient être mieux encadrées. Il faut rendre moins attrayantes les participations souvent indirectes au financement de projets se compromettant avec la propagation de la désinformation. On fait remarquer que même certains sites de presse généraliste ont fréquemment recours à des liens commandités renvoyant vers des « pièges à clics » trop souvent pourvoyeurs de fausses informations, notamment en matière de santé.
Le rapport canadien exhorte le gouvernement à financer une instance indépendante ouverte à la participation des experts et du public afin de réglementer les pratiques associées à la désinformation. Des mesures allant de l’amélioration du design des interfaces utilisateurs à des régulations qui viendront contrebalancer les logiques algorithmiques répondant à des impératifs strictement commerciaux sont mises en avant dans le rapport français. On propose, dans le même esprit, de responsabiliser les « influenceurs » dotés d’une grande visibilité numérique. De même, il faut intensifier la pression sur les plateformes qui tirent parfois d’importants revenus de l’exploitation de ce qu’il y a de pire dans les comportements sociaux de leurs utilisateurs.
Voilà deux démarches convergentes, l’une citoyenne et l’autre émanant d’experts qui insistent sur l’urgence d’aborder sérieusement la lutte contre les infox, un poison délétère pour les processus démocratiques. On se demande ce qu’il faudrait de plus pour convaincre de l’urgence de passer des lamentations aux actions concrètes pour réduire les infox.