

Ils sont devenus l’éléphant dans la pièce, ces fantômes invisibles qui influencent subtilement nos choix et gestes...
«Les gens continuent de croire que nous sommes dans une démocratie vivante parce qu’il y a deux partis [politiques] qui ne partagent pas les mêmes idées, c’est de la bullshit totale ! »
Ce coup de gueule lancé quelques jours avant la victoire de Donald Trump aux élections américaines vient de la flamboyante Cathy O’Neil, diplômée de Harvard et auteure de Weapons of Math Destruction. Le brûlot qui décrit le pouvoir opaque des algorithmes sur plusieurs pans de la société a été hissé au rang de best-seller par The New York Times l’automne dernier.
L’initiée de Wall Street et ex-analyste de données pour de grandes firmes financières ne se fait guère plus d’illusions quant à l’influence délétère de beaucoup d’algorithmes sur la politique américaine, les campagnes électorales et la circulation des informations dans nos sociétés.
« La démocratie […] c’est un public informé, capable de saisir les enjeux. Les algorithmes rendent de plus en plus difficile l’accès à une bonne information », confiait-elle au Guardian en octobre dernier. La docteure en mathématiques, d’abord séduite par l’aspect pur, neutre et rationnel des algorithmes, les découvre aujourd’hui tordus à des fins politiques ou lucratives. Les mathématiques neutres, dit-elle, ne sont pas neutres.
Vous pouvez être sûrs que chez Facebook ou Google, on planche actuellement sur des algorithmes pour combattre ces autres algorithmes qui sont des producteurs de fausses nouvelles!
Depuis un an, la victoire-surprise du Brexit, l’improbable élection de Donald Trump à la tête de la première puissance mondiale et la montée en flèche de l’extrême droite dans plusieurs pays ont ouvert un virulent débat sur le rôle joué dans l’issue de plusieurs campagnes politiques par les algorithmes régulant le flot des informations sur les différents réseaux sociaux.
À l’heure où 47 % des Américains puisent leurs informations sur les fils de nouvelles des réseaux sociaux, plusieurs se sont empressés de montrer du doigt ces géants du Web et d’ausculter la façon dont fonctionnent leurs algorithmes pour diffuser et prioriser les informations auprès des internautes.
« Vous pouvez être sûrs que chez Facebook ou Google, on planche actuellement sur des algorithmes pour combattre ces autres algorithmes qui sont des producteurs de fausses nouvelles ! » explique au Devoir Christopher Steiner, auteur d’Automate This : How the Algorithms Came to Rule our World.
« Je pense tout de même que les compagnies comme Facebook et Google ont pris acte du rôle qu’elles ont pu jouer indirectement dans la campagne américaine et qu’elles sont à la recherche de solutions », soutient l’essayiste.
Mais, même si Facebook et consorts ont fait leur mea culpa, s’engageant à agir contre l’invasion des fausses nouvelles d’autres sont beaucoup moins tendres envers l’influence souterraine qu’ont eue ces nouveaux joueurs de « l’information » sur l’échiquier politique.
« Quand une compagnie privée s’arroge le droit d’arbitrer la vérité et la fausseté, il y a un problème. Ça ne marche pas. Les grandes plateformes essaient de travailler cela, mais en réalité, elles ont donné à des algorithmes la capacité d’arbitrer la vérité », dénonce Jonathan Roberge, professeur à la Chaire de recherche du Canada sur les nouveaux environnements numériques.
Accusé en pleine campagne électorale de favoriser des positions de droite sur ses fils de nouvelles, Facebook s’est rapidement ravisé en confiant à des algorithmes « neutres » la gestion de ses contenus, toutefois incapables de distinguer une fausse d’une vraie nouvelle.
« Facebook doit faire en sorte que les gens deviennent accros à son fil de nouvelles pour rester lucratif. Pour cela, il doit vous nourrir d’un flux constant de nouvelles et de mises à jour qui vont vous donner un afflux de dopamine. Cela priorise les nouvelles qui vont vous accommoder plutôt que de mettre au défi vos perceptions et vos visions du monde », faisait valoir la chroniqueuse Parmy Olson, de la revue Forbes, au lendemain de l’élection américaine, dans un article sans équivoque intitulé « How Facebook Helped Donald Trump Become President ».
Finement décrit par Eli Pariser dans son essai Filter Bubbles, ce phénomène autoréférentiel généré par des algorithmes d’abord conçus à des fins commerciales enferme et dirige sciemment les internautes dans ce qui leur plaît, laissant dans les limbes numériques ce qui les lasse ou les irrite. Le profilage, rendu possible par l’analyse pointue des traces numériques laissées par les internautes, permet aujourd’hui d’offrir des versions totalement différentes du Web à deux personnes faisant exactement la même demande au même moteur de recherche.
En tapant « BP » dans un outil de recherche, décrit Pariser dans son livre, un individu identifié « de tendance libérale » par un algorithme obtiendra une tonne d’informations sur la catastrophe pétrolière survenue dans le golfe du Mexique, alors que le même algorithme, pour une requête identique, servira à l’internaute « codé conservateur » une pléthore de renseignements sur la compagnie pétrolière.
Certains voient mal comment les géants du Web pourraient eux-mêmes combattre ces « silos d’information » qui contaminent l’opinion publique, car leurs algorithmes ont été précisément conçus pour générer des millions de clics et de partages destinés, au bout du compte, à rapporter des millions en profits à leurs créateurs.
L’influence souterraine que font peser les réseaux sociaux sur le fonctionnement des démocraties amène certains États, dont la France, à réagir. En pleine course aux primaires de la droite, la Commission nationale sur l’informatique et les libertés a arrêté une position très claire, interdisant aux partis l’usage de logiciels de stratégie électorale utilisant des données personnelles à des fins de profilage ou de fichage des électeurs. Et ce, même chez des membres du parti n’ayant pas été informés du traitement de leurs données personnelles.
En novembre, elle lançait même une enquête sur une application lancée pour géolocaliser les ex-partisans de Sarkozy en fonction de clics et de données laissées sur le Web.
À l’heure où les algorithmes ont bel et bien investi le champ de la politique, il semble que la seule solution soit le développement d’autres algorithmes qui permettront eux-mêmes de percer ces « bulles de filtre » et de traquer les fausses nouvelles.
Mince espoir, le chercheur français Xanier Tannier s’est déjà engagé dans ce combat pour la vérité en développant, grâce à des fonds obtenus par Google, un algorithme capable de dépister les mensonges, semi-vérités et contradictions dans le discours des politiciens. Tout un contrat. Parions que son outil deviendra très prisé dans les années à venir.
Ils sont devenus l’éléphant dans la pièce, ces fantômes invisibles qui influencent subtilement nos choix et gestes...
Leur influence exponentielle dans les réseaux sociaux change la donne dans ce secteur.
Les recommandations faites par les services de « streaming » ouvrent-elles vraiment nos horizons ?
Les algorithmes interviennent dans à peu près tous les gestes de notre vie quotidienne.