

La main invisible des algorithmes
Ils sont devenus l’éléphant dans la pièce, ces fantômes invisibles qui influencent subtilement nos choix et gestes...
Ils sont devenus l’éléphant dans la pièce, ces fantômes invisibles qui influencent subtilement nos choix et gestes quotidiens, qu’on le veuille ou pas. Ils dictent ce que nous trouvons sur le Web, nous soufflent à l’oreille quoi lire, quoi manger, quoi craindre, pour qui voter, parfois jusqu’à comment penser. Ils pèsent de tout leur poids sur nos cotes de crédit, nos transactions et même nos rêves de retraite dorée. Le tiers des gens leur confient même le soin de choisir la personne qui partagera leur lit, ou leur vie.
Ces souffleurs discrets du présent, ce sont les algorithmes de tout acabit, colocataires de nos vies personnelles, devenus peu à peu des acteurs omniprésents dans toutes les sphères de la société.
Maintenant nourris aux milliards de traces que nous laissons sur le Web, les algorithmes en connaissent plus sur nos moindres habitudes et routines que nos meilleurs amis. Et ces nouveaux copains sont appelés à se multiplier alors que point à l’horizon l’ère où ces processus automatisés seront bientôt capables de générer eux-mêmes de nouveaux algorithmes encore plus puissants.
« Ce qui s’en vient, c’est le développement de méta-algorithmes qui vont permettre à des machines de modifier elles-mêmes d’autres algorithmes pour résoudre des problèmes très complexes. L’intelligence artificielle ou “l’apprentissage machine” est devenu l’objectif central des algorithmes », affirme Alain Tapp, professeur associé, nouvellement recruté au MILA, l’Institut des algorithmes d’apprentissage de Montréal.
Le MILA et Montréal sont devenus le point de mire ces dernières semaines de ceux qui, depuis la Silicon Valley, voient dans leur soupe le jour où les algorithmes rendront possible l’intelligence artificielle (IA). Microsoft et Google ont investi leurs billes dans l’équipe pilotée par Yoshua Bengio, star de l’apprentissage profond (deep learning), récemment invité sur le plateau de Tout le monde en parle.
Entre merveilles et miracles, des algorithmes surpuissants ont permis des avancées scientifiques spectaculaires en médecine, par exemple en rendant possible le séquençage du génome, en maximisant la capacité de trouver des donneurs d’organes compatibles ou de détecter certains cancers. Mais les algorithmes se sont aussi infiltrés à une vitesse inouïe dans le champ social, contrôlant non seulement l’accès à des services et produits du commerce, mais aussi l’application de lois, de règlements et de politiques publiques.
Au banc des accusés : la prolifération d’algorithmes « prédictifs » utilisés pour prévenir la criminalité par certaines villes américaines qui, par défaut, accolent une « cote de risque élevée » aux personnes de race noire, quel que soit leur passé criminel. Dans la moitié des États américains, des logiciels « probabilistes » sont aussi utilisés pour déterminer si des accusés doivent être emprisonnés ou libérés sous caution. Même les algorithmes d’apparence anodine — autocorrecteurs de téléphones intelligents et systèmes d’outils de recherche — charrient leur lot de biais idéologiques, censurant tantôt des mots comme « avortement » ou « homosexuel ». C’est sans parler des algorithmes développés à des fins publicitaires sur les réseaux sociaux qui omettent sciemment d’afficher certaines offres d’emploi, de logement ou de crédit sur le fil de certaines catégories de personnes, comme les femmes ou les Noirs.
La mainmise invisible de plusieurs de ces outils échappe aux citoyens qu’ils touchent, insiste Christopher Steiner, auteur de l’essai Automate This : How Algorithms Came to Rule Our World, joint par Le Devoir à Chicago. « Un des plus grands impacts des algorithmes, c’est qu’ils concentrent le pouvoir entre les mains de ceux qui les créent. Cela a été vrai pour toutes les formes d’automatisation, mais celle-ci se fait à un rythme fulgurant, qui accentue à une vitesse folle le fossé entre les riches et les pauvres. »
L’ex-programmeur et collaborateur au magazine Forbes jette un regard plutôt sombre sur l’omniprésence des algorithmes. Notamment dans les marchés boursiers, où la bulle éclair de 2010 a fait se volatiliser un millier de milliards de dollars en quelques minutes. « Des algorithmes font des erreurs parce qu’ils sont écrits par des gens qui font des erreurs. Le code n’est bon que dans la mesure où celui qui l’écrit l’est », convient Steiner.
Dans son dernier livre, Weapons of Math Destruction, Cathy O’Neil, ex-spécialiste du data pour une firme de Wall Street, assimile certains algorithmes à rien d’autre que « des opinions incrustées dans des chiffres ». « Ces outils tendent à cibler les pauvres et les marginalisés et peuvent avoir des impacts négatifs sur ceux qui sont pris dans ces filets », affirmait-elle au Guardian lors de la sortie de son livre.
Alain Tapp, chercheur au MILA, soutient que les scientifiques sont bien au fait des limites des algorithmes. « Même Alan Turing [précurseur de l’informatique et décrypteur du code de la machine Enigma] a décrit les problèmes concrets auxquels peuvent faire face les algorithmes. Dès les années 1960, on a découvert que ces problèmes sont parfois “intraçables”.»
Un des plus grands obstacles au contrôle de ces acteurs silencieux, c’est le secret industriel absolu qui plane sur ces outils puissants, détenus par des entreprises dont les intérêts sont plus commerciaux que sociaux.
Ces ratés font dire à plusieurs chercheurs qu’il presse d’exiger plus de transparence et de responsabilité des géants du numérique, dont la teneur des algorithmes demeure cachée. « Sans dévoiler tout leur code, les compagnies pourraient au moins révéler quels sont les intrants de leurs algorithmes », soutient Steiner.
Les scientifiques qui planchent sur les algorithmes sont loin d’être réfractaires aux questions éthiques soulevées par leur usage, défend le professeur Tapp, qui travaille d’ailleurs avec des experts en cybersécurité sur l’enjeu de l’imputabilité des algorithmes. Vaste question en effet. Qui est responsable quand les chiffres déraillent ? La question mérite d’être posée. La France, où 64 % de la population « voit [dans les algorithmes] une menace en raison de l’accumulation des données personnelles », a pris les devants en lançant le mois dernier une consultation nationale sur cet enjeu. Dès 2014, le Conseil d’État proposait d’imposer aux créateurs d’algorithmes des garanties de transparence ainsi que des mesures permettant de détecter la discrimination illicite.
Pour Jonathan Roberge, chercheur à la Chaire de recherche du Canada sur les nouveaux environnements numériques et l’intermédiation culturelle, les algorithmes ont plongé notre monde dans un « nouveau normal », qui laisse les premiers intéressés fascinés, voire hébétés par la complexité du sujet. « Nous sommes devenus dépendants de choses dont la compréhension nous échappe », croit-il. Cette nouvelle donne bouleversera en profondeur la prérogative du pouvoir dans nos sociétés, pense le chercheur.
Or, à l’heure actuelle, l’ambiguïté et l’opacité entourant les algorithmes créent un fossé entre ceux qui les démonisent et ceux qui leur vouent une confiance quasi aveugle, estime ce chercheur. « Il faut sortir de cet imaginaire. Nous sommes déjà plongés dans une “culture algorithmique”. Il est plus que temps la société développe une réelle réflexion à ce sujet. »
Ils sont devenus l’éléphant dans la pièce, ces fantômes invisibles qui influencent subtilement nos choix et gestes...
Leur influence exponentielle dans les réseaux sociaux change la donne dans ce secteur.
Les recommandations faites par les services de « streaming » ouvrent-elles vraiment nos horizons ?
Les algorithmes interviennent dans à peu près tous les gestes de notre vie quotidienne.