La main invisible des algorithmes

Ils sont devenus l’éléphant dans la pièce, ces fantômes invisibles qui influencent subtilement nos choix et gestes quotidiens, qu’on le veuille ou pas. Ils dictent ce que nous trouvons sur le Web, nous soufflent à l’oreille quoi lire, quoi manger, quoi craindre, pour qui voter, parfois jusqu’à comment penser. Ils pèsent de tout leur poids sur nos cotes de crédit, nos transactions et même nos rêves de retraite dorée. Le tiers des gens leur confient même le soin de choisir la personne qui partagera leur lit, ou leur vie.

Ces souffleurs discrets du présent, ce sont les algorithmes de tout acabit, colocataires de nos vies personnelles, devenus peu à peu des acteurs omniprésents dans toutes les sphères de la société.

Maintenant nourris aux milliards de traces que nous laissons sur le Web, les algorithmes en connaissent plus sur nos moindres habitudes et routines que nos meilleurs amis. Et ces nouveaux copains sont appelés à se multiplier alors que point à l’horizon l’ère où ces processus automatisés seront bientôt capables de générer eux-mêmes de nouveaux algorithmes encore plus puissants.

« Ce qui s’en vient, c’est le développement de méta-algorithmes qui vont permettre à des machines de modifier elles-mêmes d’autres algorithmes pour résoudre des problèmes très complexes. L’intelligence artificielle ou “l’apprentissage machine” est devenu l’objectif central des algorithmes », affirme Alain Tapp, professeur associé, nouvellement recruté au MILA, l’Institut des algorithmes d’apprentissage de Montréal.

Montréal dans la mire

Le MILA et Montréal sont devenus le point de mire ces dernières semaines de ceux qui, depuis la Silicon Valley, voient dans leur soupe le jour où les algorithmes rendront possible l’intelligence artificielle (IA). Microsoft et Google ont investi leurs billes dans l’équipe pilotée par Yoshua Bengio, star de l’apprentissage profond (deep learning), récemment invité sur le plateau de Tout le monde en parle.

Entre merveilles et miracles, des algorithmes surpuissants ont permis des avancées scientifiques spectaculaires en médecine, par exemple en rendant possible le séquençage du génome, en maximisant la capacité de trouver des donneurs d’organes compatibles ou de détecter certains cancers. Mais les algorithmes se sont aussi infiltrés à une vitesse inouïe dans le champ social, contrôlant non seulement l’accès à des services et produits du commerce, mais aussi l’application de lois, de règlements et de politiques publiques.

Quand le code devient loi

Au banc des accusés : la prolifération d’algorithmes « prédictifs » utilisés pour prévenir la criminalité par certaines villes américaines qui, par défaut, accolent une « cote de risque élevée » aux personnes de race noire, quel que soit leur passé criminel. Dans la moitié des États américains, des logiciels « probabilistes » sont aussi utilisés pour déterminer si des accusés doivent être emprisonnés ou libérés sous caution. Même les algorithmes d’apparence anodine — autocorrecteurs de téléphones intelligents et systèmes d’outils de recherche — charrient leur lot de biais idéologiques, censurant tantôt des mots comme « avortement » ou « homosexuel ». C’est sans parler des algorithmes développés à des fins publicitaires sur les réseaux sociaux qui omettent sciemment d’afficher certaines offres d’emploi, de logement ou de crédit sur le fil de certaines catégories de personnes, comme les femmes ou les Noirs.

La mainmise invisible de plusieurs de ces outils échappe aux citoyens qu’ils touchent, insiste Christopher Steiner, auteur de l’essai Automate This : How Algorithms Came to Rule Our World, joint par Le Devoir à Chicago. « Un des plus grands impacts des algorithmes, c’est qu’ils concentrent le pouvoir entre les mains de ceux qui les créent. Cela a été vrai pour toutes les formes d’automatisation, mais celle-ci se fait à un rythme fulgurant, qui accentue à une vitesse folle le fossé entre les riches et les pauvres. »

L’ex-programmeur et collaborateur au magazine Forbes jette un regard plutôt sombre sur l’omniprésence des algorithmes. Notamment dans les marchés boursiers, où la bulle éclair de 2010 a fait se volatiliser un millier de milliards de dollars en quelques minutes. « Des algorithmes font des erreurs parce qu’ils sont écrits par des gens qui font des erreurs. Le code n’est bon que dans la mesure où celui qui l’écrit l’est », convient Steiner.

Dans son dernier livre, Weapons of Math Destruction, Cathy O’Neil, ex-spécialiste du data pour une firme de Wall Street, assimile certains algorithmes à rien d’autre que « des opinions incrustées dans des chiffres ». « Ces outils tendent à cibler les pauvres et les marginalisés et peuvent avoir des impacts négatifs sur ceux qui sont pris dans ces filets », affirmait-elle au Guardian lors de la sortie de son livre.

Trouver la faille

Alain Tapp, chercheur au MILA, soutient que les scientifiques sont bien au fait des limites des algorithmes. « Même Alan Turing [précurseur de l’informatique et décrypteur du code de la machine Enigma] a décrit les problèmes concrets auxquels peuvent faire face les algorithmes. Dès les années 1960, on a découvert que ces problèmes sont parfois “intraçables”.»

Un des plus grands obstacles au contrôle de ces acteurs silencieux, c’est le secret industriel absolu qui plane sur ces outils puissants, détenus par des entreprises dont les intérêts sont plus commerciaux que sociaux.

Ces ratés font dire à plusieurs chercheurs qu’il presse d’exiger plus de transparence et de responsabilité des géants du numérique, dont la teneur des algorithmes demeure cachée. « Sans dévoiler tout leur code, les compagnies pourraient au moins révéler quels sont les intrants de leurs algorithmes », soutient Steiner.

Les scientifiques qui planchent sur les algorithmes sont loin d’être réfractaires aux questions éthiques soulevées par leur usage, défend le professeur Tapp, qui travaille d’ailleurs avec des experts en cybersécurité sur l’enjeu de l’imputabilité des algorithmes. Vaste question en effet. Qui est responsable quand les chiffres déraillent ? La question mérite d’être posée. La France, où 64 % de la population « voit [dans les algorithmes] une menace en raison de l’accumulation des données personnelles », a pris les devants en lançant le mois dernier une consultation nationale sur cet enjeu. Dès 2014, le Conseil d’État proposait d’imposer aux créateurs d’algorithmes des garanties de transparence ainsi que des mesures permettant de détecter la discrimination illicite.

Un « nouveau normal »

Pour Jonathan Roberge, chercheur à la Chaire de recherche du Canada sur les nouveaux environnements numériques et l’intermédiation culturelle, les algorithmes ont plongé notre monde dans un « nouveau normal », qui laisse les premiers intéressés fascinés, voire hébétés par la complexité du sujet. « Nous sommes devenus dépendants de choses dont la compréhension nous échappe », croit-il. Cette nouvelle donne bouleversera en profondeur la prérogative du pouvoir dans nos sociétés, pense le chercheur.

Or, à l’heure actuelle, l’ambiguïté et l’opacité entourant les algorithmes créent un fossé entre ceux qui les démonisent et ceux qui leur vouent une confiance quasi aveugle, estime ce chercheur. « Il faut sortir de cet imaginaire. Nous sommes déjà plongés dans une “culture algorithmique”. Il est plus que temps la société développe une réelle réflexion à ce sujet. »

8 commentaires

Consultez la suite du dossier

  • Nadia Alexan - Abonnée 18 février 2017 02 h 15

    Le gouvernement doit règlementer ces entreprises.

    Les grandes sociétés occupent déjà un pouvoir démesuré par rapport aux États. Donc, les algorithmes dont «la compréhension nous échappe» va augmenter le pouvoir des grandes sociétés qui les détiennent. Surtout que «ces outils tendent à cibler les pauvres et les marginalisés et peuvent avoir des impacts négatifs sur ceux qui sont pris dans ces filets.» Nous sommes déjà dans l'ère de George Orwell!
    Le gouvernement doit règlementer ces entreprises pour protéger les innocents.

    • Jean Richard - Abonné 18 février 2017 11 h 12

      Réglementer ? Encore faut-il pouvoir se fier à ceux que nous avons élus (sans voter pour eux) et à qui nous avons donné le pouvoir de le faire. Or, jour après jour nous avons l'occasion d'établir ce triste constat : nos élus et les gouvernements qu'ils contrôlent ne sont pas toujours – ou sont de moins en moins – les mieux placés pour défendre les intérêts de la société. Au contraire, les gouvernements sont plus souvent qu'autrement les complices de ceux qui mènent le monde, sans la moindre conscience sociale.

      La société évolue-t-elle comme un pendule ? Si oui, on pourrait croire à un retour du balancier et au retour d'un mouvement vers la convivialité, une sorte de Small is Beautiful 2.0, où la survie de la société passe par le contrôle de l'outil par celui qui s'en sert et non par celui qui le conçoit.

      Certains mouvements urbains nous laissent croire que le besoin de convivialité n'a jamais complètement disparu. Demander des trottoirs et des voies cyclables plutôt que des monstrueuses autoroutes, acheter ses vivres dans une petite épicerie de quartier plutôt que dans un monstrueux entrepôt le long d'une autoroute, sont des tendances non négligeables, mais qui ne suffisent pas à nous permettre de rêver à un monde convivial. Après tout, qui veut que nous achetions des voitures et non des vélos (en subventionnant les premières et non les seconds) ? Nos gouvernements élus, bien sûr, qui sont à la solde des constructeurs automobiles et des sociétés minières.

      L'éducation et la communication pourraient-ils venir à la rescousse ? L'éducation est contrôlée par les gouvernements et la communication par de puissantes sociétés commerciales, souvent mondiales (Google).

      Le virage ne pourra se faire qu'au lendemain d'une crise, à la condition que la révolution issue de la crise aille jusqu'au bout, et on sait que ce sont les gouvernements qui prendront tous les moyens de la faire avorter.

    • Cyril Dionne - Abonné 19 février 2017 17 h 23

      Ce n'est pas seulement sur le Web que nous retrouvons ces algorithmes, mais partout parce la plupart des gens n'en sont pas conscient. L'intelligence artificielle, à partir du "machine learning", ne bouleverse seulement pas nos habitudes en ligne, mais elle est intégrée partout. Malheureusement, ceux qui pensent que les emplois vont continuer à se multiplier ont tort. L'intelligence artificielle est en train de remplacer des millions d'emplois et son influence grandira de façon exponentielle. Pensez aux PLC (Programmable Logic Controllers) dans l'industrie.

      Ceux qui pensent que l'intelligence artificielle au début ressemblera à des entités humaines se trompent. Ces algorithmes ne vont que remplacer des millions de gens dans des emplois de basse et haute technologie. Les machines vont penser plus vite et avec les métadonnées, seront encore plus précises que n'importe quel être humain. La 4e révolution industrielle ne sera pas très gentille envers plus de 90% de la population active au travail d'ici 20 ans. La thèse du "Deep Learning" de Ian Goodfellow, Yoshua Bengio et Aaron Courville est très éloquente à ce sujet.

      Alors, est-ce que quelqu'un pourrait expliquer notre empressement à augmenter l'immigration axée vers des emplois qui n'existeront plus dans un futur très proche?
      Les emplois du futur, et ils ne seront pas très nombreux, n'existent pas encore.

  • Édith Brunette - Abonnée 18 février 2017 09 h 15

    Jeu de pistes

    Pour ceux que ça intéresse — question de recadrer plus largement autour des modalités de gouvernement qui découlent de la numérisation du monde et de ses habitants — la juriste et philosophe Antoinette Rouvroy travaille depuis plusieurs années sur ces questions. Aussi l'artiste François Lemieux les aborde dans le cadre d'une entrevue avec la penseur dans un film présenté actuellement chez VOX, un centre d'artiste à Montréal.

  • Raymond Aubin - Abonné 18 février 2017 09 h 22

    Le service Disconnect

    Depuis deux ans, je souscris au service Disconnect (www.disconnect.me). D’abord, cette application bloque tous les pisteurs qui collectent des informations sur moi et mon comportement sur le web. Disconnect contre des dizaines de milliers de tentatives de collecte par année — il est à peine 9 h et il a déjà bloqué 139 tentatives aujourd’hui. Ensuite, tous mes accès Internet passent par un serveur mandataire («proxy») qui rend invisible mon adresse IP en transit. Finalement, je peux effectuer des recherches web privées. C’est mon humble façon de tenir tête au Big Brother.

  • Mario Jodoin - Abonné 18 février 2017 21 h 40

    Cela montre...

    ...àquel point on surestime les bienfaits apportés par les logiciels d'intelligence artificielle.

  • Michel - Abonné 19 février 2017 08 h 02

    Manipulation

    Est-ce correct de penser que l'utilisation des algorithmes se compare
    à une sorte de manipulation génétique de la pensée humaine??