Nos robots peuvent-ils être vertueux?

En 1942, soit 14 ans avant la naissance de l’intelligence artificielle, Isaac Asimov, écrivain de science-fiction parmi les plus célébrés du monde, édictait dans sa nouvelle Cercle vicieux ses fameuses lois de la robotique, afin que les robots ne puissent que servir scrupuleusement les intérêts des humains. 1. Un robot ne peut porter atteinte à un être humain ni, en restant passif, permettre qu’un être humain soit en danger. 2. Un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la première loi. 3. Un robot doit protéger son existence tant que cela n’entre pas en conflit avec la première ou la deuxième loi.
Bien que l’idée que les robots puissent un jour prendre le dessus sur l’humanité continue d’alimenter notre imaginaire, Martin Gibert, philosophe et chercheur en éthique de l’intelligence artificielle à l’Université de Montréal, est d’avis que ces trois lois sont « beaucoup trop génériques et incomplètes pour être utiles aux éthiciens, et n’offrent aucune procédure de décision devant un dilemme ».
Dans son essai Faire la morale aux robots. Une introduction à l’éthique des algorithmes, qui paraît ces jours-ci à Atelier 10, le philosophe se questionne sur les principes moraux qui devraient être implantés dans les véhicules autonomes, assistants virtuels et autres systèmes d’intelligence artificielle qui prennent de plus en plus de place dans nos vies.
Car, s’il est vrai que les machines reflètent les valeurs de ceux qui les conçoivent, comment éviter de reproduire nos biais et préjugés inconscients ? Comment empêcher que les inégalités qui existent au sein de nos sociétés y soient reproduites et perpétuées ?
Le dilemme du tramway
Pour y réfléchir, le philosophe a recours au fameux dilemme du tramway : dans le cas d’un accident inévitable, est-ce préférable de sauver une seule personne ou cinq ? Et si on avait le choix entre un enfant et un vieillard ?
« Cette question est vraiment nouvelle pour l’humanité, d’un point de vue pratique, indique Martin Gibert, joint par téléphone par Le Devoir. Un être humain dans cette situation n’a pas le temps de réfléchir. Les réflexes et le hasard détermineront généralement son coup de volant. Il n’y a pas de problème moral. Dans le cas d’une voiture autonome, il est cependant possible d’anticiper la réaction de l’algorithme. On n’a donc pas le choix de se poser la question. »
Les résultats de sondages réalisés par le Massachusetts Institute of Technology auprès d’individus partout à travers la planète révèlent deux tendances. Certaines personnes, très attachées aux droits fondamentaux, privilégieraient une approche déontologique en laissant le hasard décider, afin de ne pas accorder plus de valeur à une vie qu’à une autre.
La plupart des répondants ont toutefois une approche utilitariste et choisiraient de sauver la vie de l’enfant. « Ici, on ne compare pas la valeur de la vie des personnes, mais plutôt la quantité de bien-être, explique-t-il. Ainsi, le décès du vieillard supprimerait moins de bien-être, puisqu’il lui resterait moins de temps à vivre. »
L’éthique de la vertu
Peu satisfait de ces deux options, Martin Gibert propose dans son essai de considérer une troisième théorie morale : l’éthique de la vertu. Cette théorie, inspirée d’une proposition d’Aristote, suggère de baser les algorithmes de nos robots sur ce que ferait une personne considérée comme vertueuse dans une région donnée.
« Ce serait un processus en deux étapes. Il faut d’abord choisir les vertueux. On ne peut faire confiance au jugement que chacun porte sur soi-même, mais je pense qu’on est tous individuellement capables de nommer des personnes dans notre entourage à qui on confierait la prise de décisions moralement délicates, des personnes qu’on estime plus vertueuses que soi-même. L’intelligence collective nous permettrait d’avoir un échantillon de 1 % ou moins des individus les plus vertueux d’une population donnée. »
Ces élus seraient alors soumis à plusieurs tests et questionnaires. Les données récoltées permettraient d’apprendre aux intelligences artificielles à bien se comporter. « Pour ma part, j’opterais volontiers pour une prise de décision “à la proportionnelle”. En cas d’accident inévitable, le système intelligent effectuerait un tirage au sort, mais celui-ci serait pondéré par les réponses des personnes vertueuses. »
Il faut d’abord choisir les vertueux. On ne peut faire confiance au jugement que chacun porte sur soi-même, mais je pense qu’on est tous individuellement capables de nommer des personnes dans notre entourage à qui on confierait la prise de décisions moralement délicates, des personnes qu’on estime plus vertueuses que soi-même. L’intelligence collective nous permettrait d’avoir un échantillon de 1 % ou moins des individus les plus vertueux d’une population donnée.
Cette solution pourrait être une piste pour régler le plus grand problème qui occupe actuellement les éthiciens de l’intelligence artificielle. Car avec l’augmentation et la diversification de ses usages, les discriminations déjà répercutées et amplifiées par les algorithmes, notamment dans le domaine de la reconnaissance faciale, pourraient avoir des conséquences désastreuses.
Selon M. Gibert, l’échantillon donné devrait en théorie être représentatif des diversités culturelles, de sexe et de genre, de revenus, d’éducation, de structures familiales, d’âges et autres. « Ça nous permet d’étendre la sphère de considération morale, de bousiller la hiérarchie qui existe actuellement, où un tout petit groupe de privilégiés prend les décisions. De cette façon, on s’assure de limiter les biais inconscients et d’éviter que les robots automatisent les inégalités et figent les discriminations dans quelque chose qui nous semble objectif. »