L’intelligence artificielle ou le danger de l’anthropomorphisme

Des chercheurs ont étudié pendant quatre ans des relations en face-à-face pour que le robot humanoïde Nina ait des interactions «riches et naturelles» et qu’il puisse réagir de façon appropriée aux différentes situations qui se présentent à lui.
Photo: Jean-Pierre Clatot Agence France-Presse Des chercheurs ont étudié pendant quatre ans des relations en face-à-face pour que le robot humanoïde Nina ait des interactions «riches et naturelles» et qu’il puisse réagir de façon appropriée aux différentes situations qui se présentent à lui.

L'expression « intelligence artificielle » me fait penser au début des ordinateurs. On les appelait alors « cerveaux électroniques ». C’était dans les années 50-60. On s’est aperçus avec le temps que ce n’étaient pas des cerveaux et on les a appelés ordinateurs, ce qui correspondait mieux à leur véritable usage et éliminait la connotation anthropomorphique. Aujourd’hui, il n’y a plus de confusion, les ordinateurs sont clairement distingués des êtres humains et, s’ils peuvent nous battre aux échecs, on sait que l’on doit garder un contrôle sur ces objets. Le danger de l’anthropomorphisme est là. Confondre une machine avec un être humain comporte un immense danger : celui que la population en vienne à croire que ces outils créés par l’homme sont au-dessus des humains et aptes à prendre les décisions à sa place.

Récemment, on apprenait qu’une puce créée il y a vingt ans comporte une faille de sécurité qui n’avait pas été détectée depuis 20 ans. Heureusement, on comprend qu’un ordinateur n’est pas un cerveau. Quelle serait la situation si, dans 20 ans, on découvrait un problème technique qui n’était pas visible au moment de la conception des algorithmes de « l’intelligence artificielle » et que, convaincus que l’IA est plus apte à prendre les bonnes décisions, nous lui avions cédé le contrôle de plusieurs décisions qui sont essentielles à nous comme êtres humains ?

Ce qu’on appelle IA n’est au fond qu’une imitation des facultés de l’intelligence humaine. Une caméra imite l’oeil et on peut lui donner une apparence semblable, mais elle n’est pas de même nature. C’est un objet qu’on ne confond pas avec un oeil.

Un algorithme est une reproduction de la démarche de ses concepteurs. Ce sont des personnes intelligentes et elles créent des algorithmes permettant de dupliquer à volonté le processus de pensée de ses concepteurs. S’il est correctement alimenté, il ne se trompera pas, mais il n’est pas l’intelligence des programmeurs. Si on peut automatiser un processus comptable, on peut aussi automatiser un processus de création d’un algorithme, qui peut modifier lui-même certains paramètres de son algorithme. C’est sans doute un exploit technologique, mais comme un ordinateur n’est pas un cerveau électronique, il n’y a pas là d’intelligence, sinon celle de ses concepteurs.

Danger de la confusion

Le danger naît de la confusion dans la population. Bien avant le danger de robots tueurs, le danger, c’est de céder les décisions à une machine parce que nous la croyons plus intelligente que nous. Vous me direz que ce ne sera jamais le cas !

Pourtant, un exemple démontre le contraire : les voitures autonomes sans conducteur. Selon ce qu’on en dit, il est inévitable que des accidents impossibles à éviter se produisent. Il faudra alors programmer la voiture pour qu’elle fasse les meilleurs choix. Qui devra-t-elle sacrifier ? Lorsqu’elle fera le choix, ce ne sera pas selon son intelligence, mais en fonction du choix des concepteurs de l’algorithme, par une copie sauvegardée dans l’ordinateur. Penser que la machine est intelligente nous amène à un fatalisme qui élimine toute vision du choix à faire dans un tel cas.

Cet exemple, qui correspond à des choix limités pour la collectivité, peut se gérer de façon beaucoup plus simple que lorsqu’on parle de grandes décisions sociétales en économie, en politique et dans le domaine social. Déjà, dans le domaine des « Fintech » (de nouvelles technologies financières), je lisais que certains acteurs prévoyaient bâtir des algorithmes capables « d’objectiver » les décisions financières pour éviter que le « politique » n’influence les choix propres au système financier. Comme si le système financier s’objectivait. Déjà, cette vision est teintée d’un parti pris idéologique. Le céder à des ordinateurs, c’est consacrer un parti pris politique. Mais techniquement, développer un tel système est tout à fait possible. Si la population est convaincue que c’est un produit d’une intelligence supérieure à la sienne, cela équivaut à convaincre la population qu’il lui faut céder des pouvoirs démocratiques fondamentaux aux concepteurs de ces outils financiers.

À mon avis, l’expression intelligence artificielle représente une menace importante pour la démocratie, car elle peut amener la population à croire qu’elle est moins apte à faire les choix que ces équipements. Leur céder le pouvoir de décider, c’est le confier à leurs concepteurs. Retirer l’allusion anthropomorphique de la désignation de ces technologies pourrait nous protéger contre ce danger.

14 commentaires
  • Raynald Blais - Abonné 12 février 2018 07 h 50

    Analogisme

    Croire que retirer l'allusion anthropomorphique, soit celle d' "Intelligence Artificielle", à la désignation de technologies nouvelles, pourrait protéger la démocratie bourgeoise contre une subordination technologique de l'Humanité, est elle-même une solution illusoire dans un monde entièrement soumis à l'accumulation du capital.

  • Françoise Labelle - Abonnée 12 février 2018 08 h 13

    L'effet Eliza

    Dans les années 60, Weizenbaum a rédigé Eliza, un petit programme qui simulait un thérapeute en reformulant les phrases de ceux qui interagissaient avec le programme provoquant des réactions émotives, ce qu'on a appelé l'effet Eliza.
    C'était les débuts de «l'intelligence artificielle». Les ingénieurs promettaient des systèmes de traduction automatique dès les années 60.

    Il y a des vagues cycliques d'engouement pour le rêve informatique («buzz») qui retombent toujours à plat. Je me souviens du ministre du ministre libéral Chagnon qui déclarait au début des années 80 qu'on créerait des illettrés technologiques si le PC d'IBM n'entrait pas illico dans les écoles. Une fois les PC acquis, on a constaté qu'il n'y avait pas de contenu et de programmes pour l'éducation.

    L'objectif est toujours systématiquement le même: vendre des immeubles (les GMF), des appareils (imagerie médicale, tableaux interactifs, Ibidules), des systèmes comme Phénix, en omettant le contenu et le personnel.

    L'objectif est toujours d'engraisser le privé avec l'argent de l'État.

    • Cyril Dionne - Abonné 12 février 2018 18 h 41

      Mme Labelle,

      Le programme Eliza est un simple algorithme de base que tous connaissent en programmation. Le programme en question reformule une question en se basant sur la réponse donnée auparavant. Pour être plus précis, c’est le test de Turing qu’il faut appliquer.

      Ceci étant dit, le modèle bidimensionnel et bipolaire de Posner, Russell et Peterson (2005, 2009) citait que les émotions découlent de deux axes principaux : l’excitation et la valence. Ils sont donc arrivés à quantifier les émotions à base d’un schème précis à partir d’observations empiriques. Pour faire plus simple, on pourrait déduire vos émotions avant même votre comportement. Ajoutez à cela des capteurs biométriques sans fils (MIT) et vous voyez ce que je veux dire.

      Pour les traductions simultanées, elles existent et elles se sont grandement améliorées (80% de précision et plus).On a maintenant des appareils qui peuvent traduire en temps réel, plus de cinq langues. Ce qui veut dire, vous parlez et votre interlocuteur comprend ce que vous dites dans sa langue maternelle et vice-versa. Alors, pourquoi les écoles d’immersion où on apprend une langue secondaire me direz-vous? Il faudrait peut-être se concentrer à bien apprendre sa langue maternelle.

      Pour les illettrés technologiques dans les écoles, ils existent aujourd’hui tout comme pour en mathématiques et en lecture. Ce n’est pas le téléphone ou la tablette qui est intelligent, mais bien la technologie qui est derrière l’apprenant. Nous formons des utilisateurs et non pas des créateurs de technologie. De toute façon, les écoles publiques ne peuvent pas répondre à cette nouvelle demande parce qu’il n’existe à peu près pas, quelqu’un de formé pour enseigner, non pas de comment se servir de l’appareil, mais comment fonctionne les algorithmes qui font fonctionner l’appareil en question. Et cet enseignement, aurait dû commencer hier…

  • Jean-Pierre Grisé - Abonné 12 février 2018 09 h 36

    Quelle est la différence

    de se faire laver le cerveau par une machine ou une campagne électorale ?

  • Claude Jollet - Inscrit 12 février 2018 09 h 37

    En 1991, j'ai commis un essai sur l'IA. Je crois qu'il peut servir à illustrer ce que monsieur Patenaude a si intelligemment avancé.
    J'ai publié mon essai sur le Web en 1996. Il y est toujours et suscite, parfois, des réactions intéressantes. Vous pourrez en juger par vous-mêmes.
    http://www.claude-jollet-ecrivain.info/conscience-

  • Jean-Pierre Grisé - Abonné 12 février 2018 09 h 39

    Quelle est la différence

    entre se faire laver le cerveau par une machine ou par une campagne électorale ?