Les robots; ni amis ni ennemis

Hélène Roulot-Ganzmann Collaboration spéciale
Grâce à l’apprentissage par renforcement, les systèmes d’intelligence artificielle (SIA) seront bientôt capables de prendre leurs propres décisions.
Photo: Frank V. Unsplash Grâce à l’apprentissage par renforcement, les systèmes d’intelligence artificielle (SIA) seront bientôt capables de prendre leurs propres décisions.

Ce texte fait partie d'un cahier spécial.

Avec les progrès de l’IA, des débats sur la personnalité juridique et la responsabilité civile des robots ont débuté. Faut-il légiférer afin d’assurer une cohabitation harmonieuse et durable entre les robots et les humains ?

« Les robots sont nos alliés, affirme Stéphanie Tessier, vice-présidente et directrice des relations extérieures de Montréal.IA. Ils nous permettent d’avoir des transports plus efficaces, donc de mieux gérer les ressources de la planète. En santé, ils apportent des solutions personnalisées et sont capables de détecter mieux que l’homme certaines lésions. Dans le domaine du divertissement, ils offrent de nouvelles possibilités et techniques de jeu, etc. Mais notre rôle à nous, en tant qu’humains, c’est de nous assurer que la technologie que nous avons mise au monde demeure bienveillante. »

Si aujourd’hui les algorithmes sont encore relativement peu autonomes et restent tributaires de la manière dont les humains les nourrissent pour prendre leurs décisions, il n’en sera pas de même pendant encore très longtemps. Grâce à l’apprentissage par renforcement, de plus en plus développé dans les laboratoires de recherche du Québec notamment, les systèmes d’intelligence artificielle (SIA) seront bientôt capables de prendre leurs propres décisions.

« Si un accident survient ou qu’un robot commette un acte criminel, qui sera responsable ? questionne Mme Tessier. Ce sont des questions sur lesquelles on ne peut faire l’impasse. »

Responsabilité du gardien

L’intelligence artificielle ne se développe cependant pas dans une sorte de vide juridique. Des lois existent, auxquelles elle est soumise en attendant qu’à terme, les gouvernements décident de légiférer de manière plus spécifique.

« Il y a déjà des éléments dans notre Code civil, indique Éric Lavallée, avocat et responsable du Laboratoire juridique Lavery. Il y a une responsabilité civile pour le gardien d’un bien, par exemple. Donc aujourd’hui, si un système d’intelligence artificielle commet une faute et qu’il y a un préjudice à autrui, le gardien de ce système est présumé en être responsable. »

Me Lavallée ajoute que, dans certains secteurs comme la santé, qui manipulent une grande quantité de données, il existe souvent déjà des cadres normatifs et réglementaires.

« On ne peut pas faire n’importe quoi, note-t-il. Les entreprises qui déploient des outils d’intelligence artificielle, soit comme utilisateur, soit comme développeur, doivent déjà se poser des questions face au cadre actuel. »

Ainsi, une personne qui concevrait un système d’IA au mépris de la sécurité d’autrui, un robot qui pourrait par exemple menacer l’intégrité physique des gens, et qui le ferait sciemment, pourrait être accusée de négligence criminelle.

« Il y a des concepts juridiques généraux qui ont déjà été éprouvés devant les tribunaux et qui pourraient s’appliquer à l’IA », affirme l’avocat.

Injustices et discriminations

Ce qui ne signifie pas qu’il ne faut pas légiférer de manière plus spécifique sur certains points. Selon Stéphanie Tessier, les SIA ne devraient pas pouvoir tuer des humains, et les chercheurs ne devraient donc pas pouvoir s’allier avec le secteur militaire pour fabriquer des armes plus efficaces. Dans un monde idéal, une résolution en ce sens serait prise au niveau international, mais rien n’indique que cela sera le cas dans un avenir proche.

« Sans aller dans ces extrêmes, on sait aujourd’hui que les robots sauront de mieux en mieux reproduire des tâches humaines relativement stables et qu’ils pourront nous remplacer dans les emplois les plus simples, note-t-elle. Ça va affecter le monde du travail. Pour éviter de creuser les inégalités, il va bien falloir que nos normes évoluent. Nous ne devons pas avoir des réflexes conservateurs afin de ne pas freiner le développement économique potentiel, mais l’IA ne peut pas remettre en cause l’essence de notre modèle social. »

Pour y parvenir, la recherche en IA et son développement devront finir par être plus inclusifs qu’ils ne le sont aujourd’hui, croit Mme Tessier. Peu de femmes et encore moins de minorités participent aujourd’hui à ce mouvement, présent presque exclusivement dans les pays du Nord. De quoi alimenter des préjugés de nature à faire perdurer, voire creuser les injustices et les discriminations.

« Les robots ne sont ni des amis ni des ennemis de l’homme, conclut Éric Lavallée. Ils sont ce que nous faisons d’eux. Comme pour toute technologie, il nous faut nous assurer de bien apprivoiser l’IA et de l’utiliser à bon escient afin qu’elle demeure bénéfique pour la société. »

« Notre rôle à nous, en tant qu’humain, c’est de nous assurer que la technologie que nous avons mise au monde demeure bienveillante »