Montréal peut être à l’avant-garde de la réflexion éthique sur l’intelligence artificielle

Des agents artificiels véritablement intelligents, capables d’apprendre par eux-mêmes, ne poseront-ils pas des risques pour les êtres humains, trop humains, que nous sommes? Des figures connues comme Stephen Hawking (sur la photo) et Elon Musk en sont convaincus, souligne l'auteur.
Photo: Joel Ryan Invision / Associated Press Des agents artificiels véritablement intelligents, capables d’apprendre par eux-mêmes, ne poseront-ils pas des risques pour les êtres humains, trop humains, que nous sommes? Des figures connues comme Stephen Hawking (sur la photo) et Elon Musk en sont convaincus, souligne l'auteur.

Montréal a réussi à s’imposer comme un centre névralgique du développement de l’intelligence artificielle (IA). Les investissements publics et privés pleuvent sur la métropole. Les approches fondées sur l’orientation générale voulant que l’IA doive autant que possible imiter le fonctionnement de l’esprit humain et arriver à apprendre de façon autonome ont permis des progrès spectaculaires, notamment en ce qui a trait au traitement des langues naturelles, aux véhicules autonomes ou à l’exécution de tâches qui semblent exiger une faculté d’intuition, comme jouer au jeu de go.

Mais des agents artificiels véritablement intelligents, capables d’apprendre par eux-mêmes et de se transformer à la lumière de leur compréhension du monde extérieur, ne poseront-ils pas des risques pour les êtres humains, trop humains, que nous sommes ? Des figures connues comme Stephen Hawking et Elon Musk en sont convaincus. Ils s’appuient en outre sur les travaux de chercheurs du Future of Life Institute de l’Université d’Oxford comme Nick Bostrom et Max Tegmark. Ces derniers affirment que les progrès rapides en IA, conjugués à l’augmentation constante de la puissance computationnelle des ordinateurs, pourraient mener à l’émergence de « super-intelligences » artificielles qui poseront un « risque existentiel » pour l’espèce humaine.

À ce stade de ma réflexion, rien ne me permet de penser que ces craintes flirtant avec le catastrophisme doivent orienter nos actions relatives à l’IA. Les pronostics des chercheurs de pointe en IA, dont Yoshua Bengio et Joëlle Pineau, sont nettement plus modérés. Ils nous rappellent que les dernières avancées ne permettent pas d’affirmer que nous nous dirigeons vers le développement d’une intelligence artificielle générale plutôt que vers la multiplication d’intelligences artificielles incroyablement efficaces dans l’exécution de tâches spécifiques, comme reconnaître un visage ou jouer au jeu de go.

Et je ne parle pas de la question de savoir si des IA pourraient ressentir des émotions et acquérir une conscience de soi analogue à celle des êtres humains. Ces perspectives relèvent, jusqu’à preuve du contraire, de la science-fiction. On peut appeler des algorithmes interconnectés des « réseaux de neurones artificiels » si l’on veut, mais nous avons affaire à des machines capables de traiter des informations en grande quantité et de monter ensuite en généralité.

Des risques éthiques

Un des effets pervers des visions sensationnalistes de l’IA — pensons à l’attribution de la citoyenneté saoudienne à un robot — est que celles-ci peuvent nous faire perdre de vue les authentiques enjeux éthiques soulevés par les récents développements. L’IA modifiera nos modes de vie, y compris le monde du travail. Toute réflexion éthique sur l’IA doit reconnaître que les bénéfices seront vraisemblablement majeurs. Les accidents de la route seront beaucoup moins nombreux lorsque des véhicules autonomes rouleront sur nos routes. Des tumeurs cancéreuses seront diagnostiquées plus rapidement. L’IA pourrait contribuer à rendre le système de justice plus accessible.

Cela dit, les risques éthiques inhérents à l’IA sont aussi majeurs. Étant donné l’opacité des algorithmes et la quantité d’information qu’ils traitent, qui sera responsable des mauvaises décisions prises par des systèmes d’IA et des inévitables défaillances ? Comment se prémunir contre les cyberattaques visant des infrastructures névralgiques qui miseront sur l’IA, comme le réseau électrique ou les hôpitaux ? Comment appliquer le principe de diligence raisonnable, en vertu duquel les producteurs de technologies doivent prendre des mesures d’atténuation des risques inhérents à l’utilisation de leurs produits, lorsque l’on sait qu’il peut être impossible pour le concepteur de retrouver le chemin pris par un algorithme pour arriver à une décision ?

Les progrès en IA reposent lourdement sur l’accès à des données, y compris nos données personnelles. Sachant que la multiplication des recoupements de données pourtant anonymisées peut permettre l’identification des personnes et que le principe de consentement est vidé de son sens lorsqu’il est question des technologies de l’information, comment assurer la protection de la vie privée ?

Et comment neutraliser les biais discriminatoires dans les données traitées par l’algorithme ou dans la vision du monde de l’ingénieur qui supervise la machine ?

Naissance de nouveaux métiers

Enfin, certains pensent que l’IA engendrera une « quatrième révolution industrielle ». Des tâches présentement accomplies par des humains le seront à l’avenir par des machines, et le travail d’un grand nombre de travailleurs sera transformé par l’IA. De nouveaux métiers naîtront.

Cette transformation fera des gagnants et des perdants. Elle exige dès maintenant une réflexion sur nos politiques sociales, fiscales et éducatives. Doit-on « taxer les robots » ? Le recours à l’IA parviendra-t-il à convaincre les législateurs d’instaurer une allocation universelle qui remplacerait les mesures actuelles de soutien du revenu ? C’est sur ces questions que planche, dans un premier temps, la Commission de l’éthique en science et en technologie. Il serait déplorable que l’IA ait pour effet d’accroître les inégalités socioéconomiques existantes.

Heureusement, les acteurs de l’IA sont, de façon générale, sensibles à ces questionnements. Une volonté s’affirme même pour que Montréal soit à l’avant-garde de la réflexion éthique sur l’IA. Un forum sur l’« intelligence artificielle responsable » aura lieu cette semaine à Montréal. Il est crucial qu’un dialogue entre les chercheurs de différentes disciplines, les industriels, les décideurs et la société civile s’amorce dès maintenant pour que l’on recherche collectivement les moyens d’assurer une atténuation des risques et une distribution juste des avantages de l’IA.

Des centaines de chercheurs sont attendus les 2 et 3 novembre au Palais des congrès de Montréal pour le Forum IA responsable, événement organisé par les Fonds de recherche du Québec et l’Université de Montréal.

6 commentaires
  • Denis Paquette - Abonné 2 novembre 2017 07 h 07

    non seulement le monde va changer mais il possèdera de nouveaux paradigme

    Faut-il penser que des ordinateurs un jour pourront prendrent des décisions importantes, n'est-il pas connu, que de plus en plus d'informations sont maintenant concentrées dans des supers machines, est-ce que ce ne sont pas ces machines qui en faire la ventillation, Recencement Canada n'a-t-il pas été obligé de revoir ses donnés, cette année, et nous ne sommes qu'au début de l'utilisation de ces supers machines, une super machine sera-t-elle un jour, capable d'utiliser toutes les subtilitées d'une langue, la question est posée, je me souviens d'avoir délà vue une série ou c'était une machine qui dirigeait le monde, est ce une fiction probable, est-ce ces machines qui vont nous diriger vers mars, avez-vous déjà lu les seigneurs de l'instumentalité du physicien Smith, c'est vraiment un ouvrage a lire

  • François Beaulé - Inscrit 2 novembre 2017 08 h 03

    La question la plus fondamentale ne sera pas abordée

    Les sciences et les technologies ont été utilisées et développées par des entreprises privées, souvent en conjonction avec les universités.

    Les machines, l'automobile, le téléphone, l'avion, la télévision et l'ordinateur ont modifié les façons de vivre et les cultures des humains, d'abord celles des Occidentaux. L'essor du capitalisme est complètement lié à l'utilisation de ces techniques et technologies. L'association du capitalisme et des technologies a développé une puissance qui dépasse celle des États. Elle a été et est encore, et de loin, la plus déterminante dans l'évolution sociale et culturelle aux 20e et 21e siècles.

    Les conséquences de l'essor du capitalisme/technologies sont souvent positives mais les bienfaits sont très inégalement répartis. Et les conséquences environnementales sont catastrophiques. Les gouvernements et les États ont surtout servi à pallier les pires effets sociaux et environnementaux et à huiler la «machine», à réguler croissance et récessions économiques. Les États se sont mis au service du marché en même temps qu'ils ont gonflé son pouvoir.

    Par exemple, l'automobile a eu une influence considérable sur notre mode de vie, en Amérique encore plus qu'en Europe, parce que les gouvernements ont construit de très nombreuses et coûteuses infrastructures routières. Et on constate aujourd'hui les graves problèmes environnementaux engendrés par la primauté du marché sur le pouvoir politique.

    L'avenir de l'humanité passe par la capacité du politique à définir le mode de vie plutôt que de réagir à l'évolution de celui-ci par la puissance du marché. La question qui confronte l'humanité est donc philosophique et politique, beaucoup plus que technologique. Les problèmes environnementaux pressent l'humanité de répondre à cette question. Avant que le capitalisme ne s'empare de l'intelligence artificielle pour augmenter sa puissance.

    • Cyril Dionne - Abonné 2 novembre 2017 16 h 50

      Excellent commentaire M. Beaulé.

  • Marguerite Paradis - Inscrite 2 novembre 2017 08 h 46

    LE FANTASME DE L'INTELLIGENCE... ARTIFICIELLE

    Je garde une 'tite gêne quand il est question d'intelligence... artificielle. Je trouve que c'est une triste fuite en avant.
    Nous avons tellement de savoir, de savoir-faire et de savoir-être « bien réels », bref de potentiel sous utilisé...
    Éthiquement et moralement, je préfère, et de loin, prioriser l'intelligence humaine.
    M.P.

  • Jacques Patenaude - Abonné 2 novembre 2017 09 h 45

    L'expression intelligence artificielle est déjà un problème éthique.

    Dans les années '50 on utilisait pour nommer l'ordinateur le terme "cerveau électronique". Ce qui non seulement ne décrivait pas bien ce qu'était cette machine mais en plus lui donnait une connotation anthropomorphiste qui suscitait plein de théories dignes de la science fiction. On l'a changé pour ordinateur ce qui a permis de mieux définir la technologie en question tout en décrivant sa véritable fonction.
    Il n'y a pas d'intelligence dans ces systèmes il n'y a qu'une imitation du fonctionnement de l’esprit humain comme le dit l'auteur et le danger est de faire croire à la population que cette imitation est supérieur à l'humain comme les transhumanistes le font actuellement. Stephan Hawking a bien raison de s'inquiéter. Pour prévenir les abus la première mesure éthique à prendre est de nommer correctement ces outils.

  • Marc Davignon - Abonné 2 novembre 2017 13 h 07

    Une amibe.

    Nous n'en sommes pas à notre première dérive étique, il y a eu la reconnaissance d'une entreprise comme «personne morale»(!?).

    Les grandes «avancées» ont été rendues possibles que par «l'explosion» de la vitesse des CPU (loi de Moore (pas vraiment une loi)) .

    Dans les années 80, les chercheurs n'arrivaient pas à dépasser le seuil d'un enfant de 4 ans (les limites des CPU avaient été atteintes).

    Quand les vapeurs de l'exaltation se sont dissipées, des gens, comme les frères Dreyfus (Mind Over Machine : The Power of Human Intuition and Expertise in the Era of the Computer, 1986, Hubert Dreyfus and Stuart Dreyfus), se sont posé des questions.

    Il faut connaitre cette petite histoire, car, l'histoire à une fâcheuse propension à se répéter. Nous sommes à prédire l'apparition (comme celle d'un messie?) d'une intelligence suprême! On peut bien prétendre avoir des sources notoires, ceux-ci restent profondément humains comme dans celle de la prédiction.

    Et encore, faut-il bien définir les contours de l'intelligence que nous «assumons» comme étant «artificielle». Est-ce celle d'une amibe, celle d'un chevreuil, d'un poisson ou d'un Trump?

    Arriverons-nous à «reproduire» notre «intéligence» ? Peut-être! Faut-il d'abord savoir comment celle-ci fonctionne ? Est-ce computationnel? Si cela est le cas, nous devrions avoir une symbolique quelque part dans notre cerveau (comme les ordinateurs, il traite des «symboles» et rien de plus) . Est-ce du connexionnisme? Par la fabrication d'un réseau étriqué et complexe et de transfert «d'information (quel type? chimique? électrique ?)» produis un résultat de «conscience»!

    Comment? Pour l'instant, nous sommes très bons à «reproduire» ce qui ressemble à ce que nous avons comme «résustat» de notre «conscience». Pas plus. Un jour, peut-être? Daniel Dennett a aussi une grande notoriété et à une réflexion sur le sujet : «Why robots won't rule the world », YouTube.