Les Sisyphe numériques

Victimes de troubles de stress post-traumatiques (TSPT), une trentaine de modérateurs de contenus poursuivent Facebook pour incapacité à fournir un environnement de travail sain et sécuritaire.
Photo: iStock Victimes de troubles de stress post-traumatiques (TSPT), une trentaine de modérateurs de contenus poursuivent Facebook pour incapacité à fournir un environnement de travail sain et sécuritaire.

Après avoir annoncé le licenciement de près de la moitié de ses salariés dans le monde, Twitter, racheté par Elon Musk, vient de licencier plus de 4000 «modérateurs de contenus» chargés de nettoyer la Toile tous les jours.

Ils pataugent en silence dans les égouts d’Internet, cherchant jour et nuit à nettoyer ses canalisations engluées de vidéos d’atrocités de toutes sortes et de discours de haine. D’un simple clic, les « éboueurs » du Web nettoient les délires d’une certaine humanité. Ils seraient 100 000 dans le monde à assainir les plateformes de Facebook, Google, YouTube, Twitter et Cie.

Depuis le début de l’année, certaines mains invisibles de ces « modérateurs de contenus » brandissent le poing à Dublin, la capitale irlandaise devenue la Silicon Valley de l’Europe. Victimes de troubles de stress post-traumatiques (TSPT), une trentaine d’entre eux poursuit Facebook pour incapacité à fournir un environnement de travail sain et sécuritaire.

Chanter au karaoké peut les aider à nettoyer toute la saleté du Web, croit le réseau social de Mark Zuckerberg. Mais voilà, a dit l’une de ses employées, « franchement, vous n’avez pas toujours envie de chanter, après avoir vu quelqu’un en morceaux ».

Le témoignage d’Isabella Plunkett, 27 ans, devant un comité de l’Oireachtas (Parlement irlandais) a fait les choux gras des médias de Dublin le 12 mai 2021. Deux mois plus tard, plus de 200 modérateurs irlandais écrivaient une lettre à Mark Zuckerberg, rappelant au grand patron du géant californien que, sans leur travail (payé en moyenne une vingtaine de dollars l’heure), son empire s’effondrerait.

Les histoires d’horreur de modérateurs de contenus sont loin d’être nouvelles. Des enquêtes journalistiques de Wired (2014) et de The Verge (2019) ont déjà levé le voile sur ces censeurs de l’ombre. Ce qui est nouveau, ce sont les poursuites judiciaires.

La première a eu lieu en Californie en septembre 2018. La plainte avait été déposée au nom de Selena Scola, une ex-modératrice soutenant avoir développé un TSPT en regardant pendant neuf mois des images violentes. Deux ans plus tard, en mai 2020, Facebook s’entendait à l’amiable avec ses 11 000 modérateurs américains en promettant de leur verser 52 millions de dollars en dommages-intérêts.

Sans vraiment reconnaître l’existence de séquelles mentales et psychologiques associées à cette activité, le réseau social acceptait de leur fournir des sessions de soutien avec des thérapeutes et de meilleurs outils pour améliorer leurs conditions de travail.

Facebook est une « pompe à fric » pour l’économie irlandaise, avec 3000 employés à temps plein et autant dans la sous-traitance. Un Irlandais sur huit travaille pour une multinationale attirée par l’un des taux d’imposition les plus faibles de l’Union européenne.

La verte Erin est d’ailleurs devenue l’Eldorado des biotechnologies et de l’informatique. Pas étonnant que ce soit sur le terrain du tigre celtique que Facebook ait des démêlés juridiques. Le poids lourd d’Internet a beau répéter qu’il est soucieux du bien-être de ses modérateurs, cela n’a pas convaincu la trentaine d’entre eux à monter au front en poursuivant Facebook pour cause de TSPT et de traumatismes de toutes sortes.

Deux profils de modérateurs

 

Un « travailleur du clic » (clic worker) reçoit une formation de deux semaines avant de visionner plusieurs centaines de messages et d’images tous les jours pendant sept heures, et il aurait moins d’une dizaine de secondes pour jeter ou non chaque document à la poubelle.

Il y aurait deux profils de modérateurs : les rapides, mais qui commettent plus d’erreurs, et les « lents », qui n’en font pas. Facebook compterait sur les deux.

Sont éliminées les photos montrant des scènes à connotation sexuelle, des vidéos de meurtres, de suicides ou d’automutilations et les déclarations haineuses qui ne correspondent pas aux « standards de la communauté » de Facebook qui emploierait 15 000 « content moderators » dans le monde.

Il y a parfois des erreurs de jugement. Ainsi, la photo de Phan Thi Kim Phuc, la fillette nue brûlée au napalm pendant la guerre du Vietnam avait été supprimée. La raison ? « D’après nos directives, les parties génitales des mineurs sont à proscrire », devait déclarer Facebook, avant de revenir sur sa décision en 2016 de censurer le célèbre cliché du photojournaliste de l’Associated Press, Nick Ut, récompensé d’un Pulitzer.

Il y a aussi le risque de modérer à outrance et passer pour des censeurs. Garder ou jeter ? Telle est la question… Il faut rester froid et neutre. Toujours.

Première grande étude ethnographique

 

Ces dernières années, Facebook aurait dépensé un demi-milliard de dollars pour engager des modérateurs, toujours en sous-traitance, en plus de l’algorithme qui contrôle ses pages.

Aux États-Unis et en Irlande, ils sont bien souvent diplômés. « Vous devez être très cultivé pour être un bon modérateur, beaucoup ont fait des études de littérature, d’économie, d’histoire, parfois dans des universités prestigieuses », rappelle Sarah T. Roberts, autrice de Behind the Screen, fruit de huit ans d’enquêtes sur les modérateurs, première grande étude ethnographique sur ces « cleaners ».

La chercheuse américaine ouvre la boîte noire de la « modération commerciale de contenu » en montrant comment les plateformes mettent tout en oeuvre pour protéger leur image de marque « à toute heure du jour » contre toutes « images dérangeantes ».

Les géants du numérique n’aiment pas parler du sale boulot des modérateurs, fortement encadré par des impératifs de productivité.

La poursuite judiciaire de Californie et celle en cours à Dublin, dans laquelle on retrouve des modérateurs espagnols et allemands, met également au jour ce qui se passe sur la face B des plateformes. La face invisible dans laquelle s’échinent les modérateurs pour garder le plus propre possible la face A. Un portrait parfait de Janus.

Mais voilà, maintenir une plateforme aseptisée s’accompagne souvent de syndromes de stress post-traumatique. Pas étonnant que quelques Sisyphe numériques cherchent aujourd’hui à alléger leur fardeau quotidien devant les tribunaux à Dublin.

À voir en vidéo