À la recherche d’une éthique de l’intelligence artificielle

Ce texte fait partie d'un cahier spécial.

Contenu partenaire - HumanIA propose la collaboration interdisciplinaire pour faire face aux enjeux éthiques que soulève le développement à très grande vitesse de l’intelligence artificielle.

Comment équilibrer le développement de l’IA avec les droits fondamentaux, comme la vie privée, le droit à l’équité ou encore la transparence des systèmes? Comment orienter ces développements vers le bien commun? Depuis près d’un an, HumanIA, un regroupement de chercheurs de l’Université du Québec à Montréal (UQAM), se penche sur ce genre de questions éthiques amenées par le développement rapide de l’IA en se concentrant sur leurs aspects humanistes.
 
 

« On a réalisé qu’à l’UQAM, on avait beaucoup de forces vives dans tous les domaines des sciences pour s’attaquer à cette problématique », explique Sébastien Gambs, professeur au Département d’informatique et titulaire de la Chaire de recherche du Canada en analyse respectueuse de la vie privée et éthique des données massives. Et les solutions doivent venir de la collaboration entre les disciplines, croit-il.

« Cet élément d’interdisciplinarité est primordial, renchérit son collègue Dominic Martin, professeur en éthique à l’École des sciences de la gestion de l’UQAM au Département d’organisation de ressources humaines. Nous, les éthiciens, ne comprenons pas nécessairement la technologie, mais nous pouvons contribuer à définir l’équité ou la justice sociale, par exemple. »

Et la façon de définir, du côté informatique, ce qu’est la discrimination ou encore l’équité est loin d’être simple. Actuellement, le manque de consensus dans le monde sur ces définitions freine même la construction d’un algorithme d’apprentissage qui ne discriminerait pas.

Tant qu’on ne s’est pas mis d’accord sur une définition, il est très difficile d’établir une norme éthique.

Les préjugés reproduits par les algorithmes sont l’un des enjeux majeurs, expliquent les deux chercheurs. Que ce soit dans le cas d’une demande d’un prêt à la banque, de la prédiction des risques de récidive de crime ou encore du recrutement prédictif, où c’est un algorithme qui analyse votre CV, les risques de discrimination existent. « À partir du moment où l’on met en place un algorithme d’apprentissage ou un système d’aide à la décision, la prédiction peut avoir un impact défavorable sur un groupe d’individus », explique Sébastien Gambs. Il faut donc vérifier si ces décisions défavorables faites par l’algorithme visent de manière plus systématique certains groupes plus vulnérables, par exemple les Afro-Américains dans le cas de prédiction de récidive de crimes aux États-Unis, ou encore les femmes, notamment en ce qui a trait à la rémunération. 

Un autre grand défi des nouveaux systèmes de l’IA est leur côté « boîte noire », qui soulève les enjeux éthiques d’explication ou de reddition de comptes. Ces mêmes réseaux neuronaux très performants en matière de précision de la prédiction le sont beaucoup moins quand il faut connaître la raison de leur décision. 

« La complexité interne du système est tellement extrême qu’un être humain n’est pas vraiment capable d’appréhender tout le fonctionnement de ce système-là », dit l’éthicien Dominic Martin. Par exemple, un oncologue serait incapable de comprendre comment un système d’IA arrive à la décision que des cellules sont cancéreuses ou non. Et l’expert en apprentissage profond serait aussi incapable de comprendre cette décision.

Le professeur en informatique Sébastien Gambs constate que l’enseignement éthique n’existe à peu près pas dans les cours d’informatique. Il suggère une piste possible à prendre : « Il faut augmenter les compétences éthiques des informaticiens et desgens qui déploient ces systèmes-là. »

Les deux professeurs soulignent que ce domaine de recherche, à l’intersection de l’IA et des humanités, est très jeune, et qu’on ne fait que commencer à cerner les enjeux les plus  importants et prioritaires. « Si on recule simplement de deux ou trois ans, personne n’était vraiment au courant de ce qui s’en venait, rappelle Dominic Martin. Aujourd’hui, il y a une conscientisation collective sur l’importance de réfléchir à ces enjeux-là, ce qui est déjà très bien. Maintenant, tout reste à faire. »
Ce contenu a été produit pour HumanIA pour l'équipe des cahiers spéciaux du Devoir. La rédaction du journal n'a pas pris part à la production de ce contenu.