Les fausses nouvelles se répandent vite sur les réseaux sociaux

Fausses nouvelles, intox, rumeurs: les fausses informations, largement relayées sur les réseaux sociaux, sont une arme redoutable de manipulation de l’opinion publique.
Photo: Jeff Chiu Associated Press Fausses nouvelles, intox, rumeurs: les fausses informations, largement relayées sur les réseaux sociaux, sont une arme redoutable de manipulation de l’opinion publique.

Les fausses nouvelles rencontrent un écho bien plus large sur Internet que les vraies informations. On le pressentait, mais une vaste étude scientifique vient de le démontrer. Elle livre des pistes d’intervention.

Fausses nouvelles, intox, rumeurs : les fausses informations, largement relayées sur les réseaux sociaux, sont une arme redoutable de manipulation de l’opinion publique. Elles auraient favorisé l’élection de Donald Trump et le Brexit, dit-on, mais dans quelle mesure cette rumeur est-elle abusive ou fondée ?

« Les réseaux sociaux ont démultiplié la diffusion de l’information, mais on sait peu de choses sur la façon dont ils favorisent la dissémination des fausses informations », écrivent Soroush Vosoughi et ses collègues du Massachusetts Institute of Technology (MIT), à Cambridge (États-Unis).

Leur analyse parue dans la revue Science du 9 mars le démontre, chiffres à l’appui : sur Twitter, les fausses informations se propagent plus vite et plus loin, touchant davantage de gens que les vraies.

L’équipe du MIT a disséqué la diffusion de fausses et de vraies informations sur Twitter entre 2006 et 2017. Au total, elle a épluché 126 000 histoires relayées plus de 4,5 millions de fois par 3 millions de gens.

Précision importante : ces informations ont été classées comme « fausses » ou « vraies » par six organisations indépendantes de vérification des faits ; leurs classifications ont été consensuelles dans 95 à 98 % des cas.

Retweet en cascade

Résultats : globalement, les fausses informations avaient 70 % de « chances » en plus d’être retweetées en « cascade » que les vraies.

Alors qu’une histoire vraie était rarement diffusée à plus de 1000 personnes, le 1 % de fausses informations les plus virales se propageaient facilement à des groupes compris entre 1000 et 100 000 individus.

La vérité mettait six fois plus de temps qu’une fausse nouvelle à atteindre 1500 personnes. Alors que la vérité n’était jamais retweetée au-delà de 10 fois, les fausses informations pouvaient être retweetées 19 fois ; et ce, 10 fois plus vite qu’une vérité relayée seulement 10 fois.

La catégorie de rumeurs la plus largement colportée était les nouvelles politiques. Venaient ensuite les légendes urbaines, puis les affaires économiques, le terrorisme, les sciences et technologies, les loisirs et enfin les désastres naturels.

Mais d’où viennent ces écarts accablants entre la diffusion — modeste — de la vérité et la dissémination — virale — des intox ?

Première piste explorée : les relayeurs de fausses nouvelles seraient des twitteurs plus aguerris, ils suivraient plus de twitteurs et auraient plus d’abonnés. Faux, ont tranché les auteurs : c’est même le contraire.

Seconde hypothèse : les coupables seraient des « robots ». Ce sont des algorithmes programmés pour retweeter automatiquement des données, sur des comptes fictifs.

Une des stratégies de lutte contre la diffusion à grande échelle des fausses nouvelles consiste à repérer et neutraliser les robots sur les réseaux sociaux. Cette étude suggère que ce ne serait pas si efficace.

 

Séviraient-ils davantage pour relayer de fausses nouvelles ? Non, ont montré ces chercheurs. Les robots accélèrent bien la diffusion des informations, vraies comme fausses. Mais la diffusion des fausses nouvelles restait plus large.

  

« Effet militant »

Alors ? L’équipe du MIT pointe un autre fautif : le comportement des utilisateurs de la twittosphère.

Les chercheurs ont sélectionné au hasard un échantillon de 5000 utilisateurs. Ils ont analysé le contenu sémantique des tweets auxquels ils avaient été exposés avant de retweeter une information.

Résultat : les fausses nouvelles relayées avaient un contenu plus « original » que les vraies infos retweetées. De plus, elles inspiraient des émotions différentes : de la peur, du dégoût, de la surprise, tandis que les vraies infos inspiraient de l’anticipation, de la tristesse ou de la joie, un sentiment de vérité.

« Nos jugements peuvent être biaisés par des nouvelles sensationnelles, confirme David Chavalarias, du CNRS à Paris. Mais un « effet militant » peut aussi jouer. En France, lors des dernières élections présidentielles, nous avons montré que, sur Twitter, les fausses nouvelles se propagent préférentiellement dans les communautés politiques dont elles sont issues. »

Ainsi, l’information circule souvent en vase clos.

Comment endiguer le pouvoir de nuisance des fausses nouvelles ?

Deux stratégies sont possibles. Ce sont, d’une part, des actions visant à repérer et à signaler les fausses informations. Par exemple, « il y a plusieurs moyens de détecter si une image a été falsifiée », indique Ewa Kijak.

D’autre part, on peut miser sur l’éducation des utilisateurs de réseaux sociaux. Mais la psyché humaine est complexe, soulignent les auteurs d’un « Forum politique » publié dans Science.

La plupart des gens préfèrent traiter des informations familières qui confortent leurs opinions antérieures, ce qui ne facilite pas la tâche.

Ce groupe d’experts appelle donc à un effort de recherches interdisciplinaires, mobilisant les plateformes des réseaux sociaux. L’enjeu : créer « une culture de l’information qui valorise et encourage la vérité ».