Intelligence artificielle: risques et défis

La semaine dernière était lancée la Déclaration de Montréal pour un développement responsable de l’intelligence artificielle (IA). Ce texte fondateur a été développé dans le cadre d’un processus inclusif donnant une large place au dialogue entre les citoyens, les experts, les décideurs publics et les acteurs de l’industrie. La Déclaration détermine les fondements sur lesquels s’élaboreront les cadres régulateurs qui, au cours des années, baliseront ce qu’il est permis ou interdit de faire en ayant recours aux procédés fondés sur l’IA.

L’IA désigne ces capacités de traiter des masses gigantesques de données et d’information, de calculer des corrélations, de prédire, d’apprendre et d’adapter de façon automatisée des réponses aux situations changeantes. Cela permet des avancées majeures qui doivent bénéficier à tous. Le préambule de la Déclaration explique que « pour la première fois dans l’histoire de l’humanité, il est possible de créer des systèmes autonomes capables d’accomplir des tâches complexes que l’on croyait réservées à l’intelligence naturelle ».

Mais l’IA vient avec son cortège de risques et de défis. C’est pourquoi formuler des principes directeurs pour le développement de ce type d’innovations est un préalable essentiel au développement de règles plus spécifiques qui viendront délimiter les droits et obligations des acteurs concernés par les processus ou les objets carburant à l’IA.

Des principes généraux

La Déclaration se décline en dix principes. On y affirme notamment que le développement et l’usage des systèmes d’IA doivent permettre d’accroître le bien-être de tous les êtres sensibles. Leur utilisation doit se faire dans le respect de l’autonomie des personnes et dans le respect de la vie privée. Les procédés fondés sur l’IA doivent aussi être compatibles avec les liens de solidarité entre les personnes et les générations. Ces systèmes doivent être soumis à l’examen et aux contrôles démocratiques. Ils doivent être compatibles avec la diversité sociale et culturelle. Leurs conséquences doivent être anticipées en fonction d’un principe de prudence. Le recours à de tels outils ne saurait avoir pour conséquence de déresponsabiliser les personnes qui y ont recours.

Ceux qui élaborent les lois ou d’autres normes trouveront dans ces principes directeurs les fondements légitimes au nom desquels certains usages de l’IA peuvent être permis ou interdits.

Les objets comme les véhicules autonomes, les jouets « intelligents » ou les médicaments connectés intégrant des technologies d’IA comportent forcément des normes par défaut. Les objets techniques ne sont pas neutres : ils permettent, autorisent ou interdisent. Les configurations par défaut des objets techniques comportent des régulations souvent mises en place dans le seul souci de répondre au « marché » sans égard aux exigences démocratiques. Ceux qui fabriquent des dispositifs comme les véhicules autonomes devront les configurer en reflétant les principes de la Déclaration.

Des principes à intégrer aux lois

Dans une société démocratique, les lois et les autres régulations, dont celles qui par défaut sont intégrées dans les objets intelligents, doivent reposer sur des justifications. Les valeurs exprimées dans la Déclaration de Montréal reflètent les consensus et justifient les exigences qui pourront être imposées par les lois aux usagers des objets et processus intégrant l’IA.

Des désaccords sont à prévoir sur l’ordre de préséance qui doit s’appliquer lorsque l’un des principes de la Déclaration viendra en conflit avec un autre. Est-ce que l’IA doit avant tout optimiser le bien-être de ceux qui sont déjà favorisés ou contribuer à mutualiser les risques de façon à protéger l’ensemble des membres de la collectivité ? Plusieurs des principes de la Déclaration vont se retrouver au coeur des argumentations que les divers groupes d’intérêts mettront en avant afin de justifier des lois réglementant la configuration des objets « intelligents ».

L’actualisation de certains des principes de la Déclaration va engendrer des remises en question des façons de faire. Par exemple, le principe de participation démocratique devra être concilié avec les revendications des entreprises à l’égard de leurs droits exclusifs sur les données qu’elles collectent et traitent au moyen des procédés d’IA. Il faudra aussi s’interroger sur la portée et les limites du principe d’équité et des exigences du consentement supposément libre et éclairé des individus et par lequel les grands joueurs industriels parviennent à accaparer la valeur des masses de données traitées par les procédés fondés sur l’IA.

Les choix sous-jacents aux dispositifs carburant à l’IA ne sont pas neutres. Cela devrait suffire à exiger leur conformité aux principes de la Déclaration de Montréal.

LE COURRIER DES IDÉES

Recevez chaque fin de semaine nos meilleurs textes d’opinion de la semaine par courriel. Inscrivez-vous, c’est gratuit!


En vous inscrivant, vous acceptez de recevoir les communications du Devoir par courriel. Les envois débuteront la fin de semaine du 19 janvier 2019.

3 commentaires
  • Cyril Dionne - Abonné 11 décembre 2018 10 h 01

    Nous nous dirigions vers une tempête informatique parfaite

    D’emblée, il faut dire que tous les beaux principes de ce monde ne pourront pas contrôler l’intelligence artificielle de la même façon qu’on ne peut pas prévenir des virus informatiques. On en arrête un et un autre surgit aussitôt plus nocif en apprenant des mesures qui avaient été mises en place pour contrer l’autre. Il n’y a rien de tangible dans ces algorithmes informatiques qui sont maintenant armés de capteurs de toutes sortes. Nos sens n’ont aucun effet sur cette intelligence virtuelle.

    Cela dit, vu l’essence même de cette intelligence, n’importe qui pourrait pondre, avec les compétences requises bien entendues, une entité presque autonome qui pourrait agir sur n’importe lequel de nos systèmes informatiques. Pensez à Stuxnet, un ver informatique de 2010 conçu par la NSA pour contrer les centrifuges iraniennes d’enrichissement d’uranium. Si la technologie de la 4e révolution industrielle nous apparaît fantastique, sophistiquée et complexe, cela sous-entend qu’elle est aussi très fragile. Imaginez pour un instant un programme intelligent qui s’introduit dans tous les systèmes électriques de la planète, cause des ravages inédits et est conçu pour parer à toutes sortes d’éventualité de correction. Nous serions tous dans la grande noirceur.

    Nous en sommes maintenant à des prototypes qui apprennent en temps réel et de façon autonome (machine learning) à solutionner des problèmes. Ajoutez à cela une intelligence artificielle héréditaire combinée avec toutes les connaissances de ce monde, et vous avez une tempête informatique parfaite qui se dessine dans un horizon pas si lointain.

    C’est fascinant de voir ce que l’homme a pu créer et tout se passe entre ses deux oreilles. Peut-être, en voulant devenir immortel, certains seront enclins à vouloir pousser l’enveloppe toujours un petit plus loin et nous nous réveilleront un jour dans un monde virtuel qui n’existe pas. Et on se demandera où s’arrête l’artificiel et où commence le réel.

  • Claude Coulombe - Abonné 11 décembre 2018 11 h 16

    IA et éthique, Montréal, un modèle à suivre…

    La science est neutre mais les innovations qui sortent de nos laboratoires auront des effets sur la société. C’est pourquoi il est important d’avoir un cadre éthique pour éviter les débordements.

    Par la «La Déclaration de Montréal pour un développement responsable de l’intelligence artificielle», et les nombreuses initiatives afin de bannir les robots-tueurs, la communauté IA de Montréal dont Dr Yoshua Bengio de l’Université de Montréal est le porte-étendard, montre la voie au monde entier.

    Nous pouvons être fiers!

    https://www.declarationmontreal-iaresponsable.com/la-declaration

    P.-S.: Le seul petit reproche que je pourrais faire est que la déclaration fait sienne le «Principe de prudence» (risque avéré) alors que le «Principe de précaution» (risque avec incertitude) m’apparaîtrait plus approprié.

  • Marie-Claude Lefrancois - Abonnée 11 décembre 2018 23 h 42

    La responsabilité humaine

    Les puissantes industries qui font la promotion des infrastructures et des outils technologiques sous-jacentes à l'implantation de l'intelligence artificielle emploient des ingénieurs doués en algorithmes mais n'ayant aucune notion biologique et médicale ni expertise quant au contexte socio-culturel dans lequel elles s'immiscent. Un outil est un moyen et non un objectif thérapeutique ou social. Lorsque l'outil remplace le jugement clinique du praticien en santé, basé sur l'écoute et l'observation privilégiée des symptômes fournis par le patient, le médecin est désormais au service de l'outil et non au service du patient. Ce même outil qui récolte des données médicales sans garantie d'en protéger le principe et l'éthique de confidentialité, pourtant obligatoire dans l'exercice d'un acte professionnel médical. Personnellement, mes dernières expériences dans un cabinet de médecin m'ont profondément déçues et inquiétées. Au lieu d'une écoute attentive et d'un contact visuel assidu, le médecin a fixé son écran d'ordinateur et son téléphone "intelligent". La rencontre clinique thérapeutique n'a donc jamais eu lieu.