Les algorithmes

Les activités dans le monde connecté sont presque toutes supervisées au moyen de procédés qui font usage d’algorithmes. Comme le montre le dossier d’Isabelle Paré et de Guillaume Bourgault-Côté publié dans Le Devoir du 18 février, pour la plupart des activités humaines — par exemple, les moteurs de recherche, les réseaux sociaux, plusieurs dispositifs médicaux, les systèmes de domotique, les étiquettes « intelligentes », les véhicules autonomes, les imprimantes 3D —, les robots fonctionnent et livrent les résultats attendus en mobilisant la puissance des algorithmes.

Les algorithmes sont des objets techniques particuliers : en régulant les informations et les objets, ils régulent les comportements. En y ayant recours, on peut rendre possibles ou impossibles des activités. On peut fixer les prix selon différents paramètres, montrer ou cacher des messages. Les algorithmes font des calculs en temps réel pour déterminer quel message publicitaire sera affiché sur une page Web, quels biens de consommation seront proposés à l’internaute, quelles émissions seront suggérées à l’abonné de Netflix. À bien des égards, les algorithmes régissent nos comportements autant sinon plus que le font les lois et règlements régissant nos activités quotidiennes.

Comme ils fonctionnent de façon automatisée, les algorithmes peuvent parfois livrer des résultats bizarres. Par exemple, des mots-clés considérés comme suspects par ceux qui ont programmé l’algorithme peuvent déclencher la suppression d’un document affiché sur un réseau social. Il y a donc des raisons de se préoccuper des prémisses sur lesquelles se fonde l’algorithme pour livrer ses résultats.

Les algorithmes imposent leur logique et leur « loi », ils régulent le fonctionnement des objets et influent sur les comportements des personnes. Évidemment, ils ne régulent pas comme le font les lois adoptées par les députés. Mais leurs effets peuvent être comparables, souvent plus efficaces ! Dans les sociétés démocratiques, nous avons le choix de laisser les algorithmes régir de grands pans de nos vies ou de prendre les moyens de réguler les régulations qu’ils génèrent.

Réguler les régulations

Les algorithmes sont un mécanisme fondamental du fonctionnement du monde connecté. On ne peut en soi les interdire. Mais il est urgent de prendre la mesure des effets normatifs qu’ils engendrent. Il faut que les personnes concernées soient en mesure de savoir comment, sur quelles bases, sur quels présupposés fonctionnent les algorithmes ; à partir de quels raisonnements ils génèrent leurs décisions.

Déjà dans les années 1990, des universitaires juristes avaient anticipé le rôle régulateur des configurations techniques. Au lieu de les écouter, la plupart des décideurs se sont réfugiés dans une béate résignation sur la prétendue impossibilité de réguler les configurations technologiques.

Certains réclament que l’utilisation des algorithmes soit conditionnelle à une obligation de transparence. On revendique que leurs présupposés soient connus du public. Les raisonnements qui engendrent les décisions devraient être transparents.

L’enjeu est d’éviter que des calculs à partir de masses de données mènent à des décisions discriminatoires ou autrement attentatoires aux droits des personnes. Il est essentiel que les entreprises qui les utilisent expliquent clairement ce que font les algorithmes et selon quels présupposés.

Que faire ?

Plusieurs experts estiment qu’il n’est pas réaliste d’assortir l’usage des algorithmes d’une obligation de transparence. Certains ont plutôt préconisé que les lois étatiques instituent des processus de régulation inspirés de ceux qui régissent le développement et la mise en marché des médicaments et d’autres semblables produits complexes. Le développement et la mise en marché des médicaments sont soumis à des exigences quant à la validation des effets de ces produits, de leur efficacité et de leurs conséquences non prévues. Appliquer un tel modèle aux algorithmes impliquerait des obligations de partager les informations relatives au fonctionnement des outils fondés sur des algorithmes. Il faudrait également que les autorités publiques disposent d’une réelle capacité d’imposer des processus de vérification et de validation.

Les algorithmes ont le potentiel de générer des décisions qui ont des conséquences bien réelles sur les personnes. Il faut se demander si leur usage ne doit pas être encadré par des processus crédibles de contrôle de la raisonnabilité des décisions qu’ils engendrent.

Réguler les processus fondés sur des algorithmes, c’est obliger ceux qui les utilisent à garantir qu’ils fonctionnent en conformité avec les principes des lois étatiques et les droits fondamentaux. Cela suppose une capacité de vérification transparente pour le public. Si le monde connecté doit fonctionner dans le respect des principes démocratiques, il faudra rapidement penser un cadre régulateur à la mesure des enjeux que comportent les processus décisionnels fondés sur des procédés aussi puissants.

8 commentaires
  • Daniel Pascot - Abonné 21 février 2017 07 h 55

    On peut tous faire quelque chose

    Si le problème que pose les algorithmes est grave et chaud, il n'est pas nouveau. Tant que les ordinateurs étaient peu nombreux et isolés les uns des autres, les voix telles que celle de Lawrence Lessig qui nous a alerté qu'un programme nous contrôle (auteur de « code is law ») ou Richard Stallman (le père du logiciel libre) qui nous a expliqué que celui qui contrôle le code (les algorithmes) contrôle le programme (et donc nous) passaient sous le radar et n’étaient pas prises au sérieux du plus grand nombre. Maintenant que les ordinateurs sont partout et très puissants nous sommes tous touchés, nous en prenons conscience, et oui il faut faire quelque chose.
    Un algorithme ne devient dangereux que s’il est alimenté par des données, un algorithme qui ne me touche pas ne me concerne pas. Ainsi, nous ne devons pas laisser nos données n’importe ou n’importe comment, c’est leur accumulation et la mémoire et la puissance gigantesques dont nous n’avons pas conscience qui rend cette accumulation des petites données dangereux car mis en relation par un algorithme elles révèlent notre comportement et qui nous sommes. C’est le recours à des algorithmes opaques bien qu’ils nous concernent directement qui est dangereux.
    Il y a deux pistes à notre disposition : faire attention et ne plus accepter d’échanger nos données pour une « expérience informatique » fugace (autrement dit ne plus donner notre droit d’aînesse contre un plat de lentille) et ne plus faire confiance à un code opaque, c’est à dire ne plus utiliser de code ou de format de données qui ne soit pas public, c’est-a-dire libre (au sens libre d’accès).
    Aujourd’hui chacun de nous est concerné et peut faire quelque chose, et plus nous le ferons plus les gouvernements n’auront plus le choix, il y a une limite à ignorer le peuple. Et c’est possible, le code pour ce faire existe, de plus en plus de gens le font au fur et à mesure que la conscience du risque existe, un viol d’intimité c’est désagréable quand c’est notre d

  • Pierre-Alain Cotnoir - Abonné 21 février 2017 09 h 10

    Erreur 404

    Le chroniqueur se trompe de cible. Il se pense toujours aux prises avec des lignes de codes dont les règles et postulats ont été déterminés par des programmeurs, comme dans le bon vieux temps des langages Lisp ou Prolog servant alors de base aux premiers balbutiements en intelligence artificielle ou système expert. Les choses ont bien changé. Les réseaux neuroniques convolutionnels à apprentissage supervisé ou par renforcement ont remplacé ces méthodes à prédicats. Quand alphago a joué, il y a maintenant près d'un an, son 37e coup lors de la deuxième partie contre Lee Sedol, personne n'avait programmé ce coup, il ne provenait que des abstractions réalisées en apprentissage profond effectué par le réseau neuronique. Pourtant, il a redéfini la manière de jouer des maîtres en Go. Il a depuis été commenté et il est désormais enseigné (voir https://www.youtube.com/watch?v=JNrXgpSEEIE ).
    Aussi de penser qu'un réseau neuronique de cette complexité pourrait "expliquer" par logique formelle ce que le programme avait appris de ses milliers de partis appris en simulant celles de grands maîtres, de ses millions de joutes jouées contre lui-même de manière compréhensible pour le commun des gens est une aberration. Ce serait comme demander à Lee Sedol d'expliquer comment l'intuition d'un coup lui vient. Or, les développements actuels de l'IA font en sorte que si l'on peut demander à un système fonctionnant en "Deep learning" de décrire par des mots une photo qu'il vient de "voir", il est tout à fait impossible d'en obtenir la description compréhensible des étapes ayant mené à cette capacité, sinon en expliquant que la première couche de neurones cachés extrait, comme dans la vision chez les animaux, les zones de contraste, la seconde, des formes simples, la troisième des assemblages de formes, etc.

    • René Pigeon - Abonné 21 février 2017 12 h 43

      La complexité d’un phénomène : un écran pour dissimuler la source, le programmeur ?

      Merci d’avoir levé le voile sur une partie du problème.

      Toutefois, j’ai une question à vous poser à la suite de votre affirmation :
      « Aussi de penser qu'un réseau neuronique de cette complexité pourrait "expliquer" par logique formelle ce que le programme avait appris de ses milliers de parties apprises en simulant celles de grands maîtres, de ses millions de joutes jouées contre lui-même de manière compréhensible pour le commun des gens est une aberration. Ce serait comme demander à Lee Sedol d'expliquer comment l'intuition d'un coup lui vient. »

      Est-ce que ça ne renvient pas à dire que l’être humain n’est pas responsable de ses décisions et de ses actes simplement parce qu’il ne peut pas « expliquer par logique formelle » sa décision et l’acte qui en découle ? Est-ce que la complexité d’un phénomène dont le concepteur de l’algorithme est la source devient un écran pour dissimuler la cause première d’une chaine de causes à effets devenue trop longue au gout de certains et ainsi excuser la cause première – le concepteur de l’algorithme – aussi indirecte soit-elle ?

      Ultimement, cette discussion touche peut-être celle de la réalité du libre arbitre.

    • Pierre-Alain Cotnoir - Abonné 21 février 2017 14 h 33

      @René Pigeon Belle question de votre part. Ainsi, il demeure très difficile d'obtenir d'un technicien détenant une longue expérience dans la gestion disons d'une colonne de distillation dans une raffinerie de pétrole comment il "sent" que la colonne risque de tomber en "choke' (étranglement) nécessitant son arrêt pendant plusieurs jours. L'essentiel des processus cognitifs humains se réalisent à l'insu conscient de celui chez qui ils se produisent. Le libre arbitre dans ce sens est déjà contaminé. Pour ce qui concerne les réseaux neuroniques, il ne s'agit pas simplement d'un écran servant à dissimuler la complexité intervenant, mais de la nature même des processus. Par contre, "l'éducation" du réseau neuronique, c.-à-d. ce qui lui est présenté pour apprendre influencera sa capacité à discriminer. Le cas connu d'un réseau neuronique auquel l'on avait montré à discerner parmi des centaines de milliers d'images de visages, mais uniquement de "blancs", mais qui fut incapable de classifier correctement le visage d'un noir illustre mon propos. C'est au niveau de l'information fournie que devrait se situer les suivis tant éthiques que "pédagogiques".

  • Raynald Richer - Abonné 21 février 2017 11 h 07

    Contrôler l'accès aux données

    Les algorithmes sont nourris par les données ou les métadonnées auxquelles ils ont accès. La façon la plus efficace de contrôler les algorithmes est de contrôler leurs accès aux données.

    S’il est difficile de contrôler l’intérieur des algorithmes, il est beaucoup plus facile de contrôler l’accès aux données en légiférant ce qui peut être écrit dans les licences d’utilisation.

    Un vendeur de bien de consommation ne peut écrire n’importe quoi dans sa publicité, la garantie offerte, etc. Si le gouvernement encadre les commerçants normaux, il devrait aussi encadrer les vendeurs de logiciels et d’appareil électronique pour protéger les utilisateurs, car les consommateurs ne jouent pas à armes égales avec les compagnies dans ce domaine.

  • Daniel Pascot - Abonné 21 février 2017 12 h 21

    erreur mais de quel ordre ?

    Pierre-Alain Cotnoir, assurément quand vous parlez vous savez de votre spécialité (ou de ce qui vous intéresse) vous êtes compétenté. Le mot algorithme vous a directement entraîné sur votre terrain alors que je ne pense que le sujet n’est pas là, ce qui se profilait derrière cette chronique c’est le contrôle de notre vie privée.

    Je profite de ce commentaire rapide pour compléter ma dernière phrase qui a été tronquée : Et c’est possible, le code pour ce faire existe, de plus en plus de gens le font au fur et à mesure que la conscience du risque existe, un viol d’intimité c’est désagréable quand c’est notre demeure, cela peut devenir pire avec nos données.

  • René Pigeon - Abonné 21 février 2017 12 h 40

    La faisabilité de réguler des produits trop complexes ou nombreux : imposer au concepteur de démontrer l’innocuité après le lancement du produit sur demande motivée ?

    « Plusieurs experts estiment qu’il n’est pas réaliste d’assortir l’usage des algorithmes d’une obligation de transparence. Certains ont plutôt préconisé que les lois étatiques instituent des processus de régulation inspirés de ceux qui régissent le développement et la mise en marché des médicaments et d’autres semblables produits complexes. »

    En effet, il n’est pas faisable de réguler en plusieurs cas. Le domaine des algorithmes ramène la question de la faisabilité de réguler des produits (biens ou services) qui sont trop complexes ou nombreux pour que l’État (et les entités déléguées pour réguler à sa place ou s’autoréguler) puissent effectuer cette tâche colossale sans imposer une contrainte qui retarderait l’introduction et l’usage à un degré immobilisant pour les usagers. Dans toute industrie ou marché, une régulation peut se faire, préférablement, avant ou, sinon, après le lancement du produit. Lorsqu’il n’est plus possible de réguler des produits trop complexes ou trop nombreux avant le lancement de l’algorithme, ne reste-t-il pas à l’État d’imposer au concepteur (ou son utilisateur sous licence) l’obligation de démontrer l’innocuité des dits produits algorithmiques par une autorité étatique ou mandatée qui pourra demander à un expert indépendant homologué à cet effet d’effectuer un « processus de vérification et de validation » après le lancement du produit ?