Prôner une intelligence artificielle responsable

Etienne Plamondon Emond Collaboration spéciale
L’un des projets de recherche de Marie-Jean Meurs vise à détecter les signes avant-coureurs de dépression et d’anorexie à l’aide de textes publiés par des internautes dans des forums et des réseaux sociaux. Si les modérateurs de certains forums sont alertés rapidement, ils peuvent intervenir auprès des gens en danger.
Photo: Jacques Nadeau Le Devoir L’un des projets de recherche de Marie-Jean Meurs vise à détecter les signes avant-coureurs de dépression et d’anorexie à l’aide de textes publiés par des internautes dans des forums et des réseaux sociaux. Si les modérateurs de certains forums sont alertés rapidement, ils peuvent intervenir auprès des gens en danger.

Ce texte fait partie d'un cahier spécial.

Orienter les travaux de recherche en intelligence artificielle vers le bien commun : voilà l’objectif affiché par le regroupement de recherches HumanIA. Pour l’une de ses coordonnatrices, la professeure au Département d’informatique de l’Université du Québec à Montréal (UQAM) Marie-Jean Meurs, la clé pour y arriver réside dans les collaborations entre les différentes disciplines.

Pour prendre en considération les enjeux éthiques qui émergent de l’intelligence artificielle, Marie-Jean Meurs travaille, dès qu’elle démarre des projets de recherche, avec des juristes, des philosophes et des éthiciens. « Je pourrais faire des mathématiques appliquées et de l’informatique théorique, déléguer la dimension éthique à mes collègues et ne pas m’en préoccuper, en me disant que je fabrique de jolis moteurs, puis que les autres vont décider du contexte éthique dans lequel ils les utilisent. » Mais cela ne lui ressemble pas. Depuis le début de sa carrière, sa démarche a pris un virage fort différent. « Il se trouve que mon intérêt de recherche, en intelligence artificielle, c’est vraiment dans le cadre d’une recherche multidisciplinaire, où je préfère partir des problèmes, puis sélectionner des approches d’intelligence artificielle qui vont s’adapter, pour le mieux, aux problèmes qu’on rencontre. Dans cette démarche, la collaboration entre les disciplines m’apparaît indispensable. » Cette démarche permet notamment de respecter ou de répondre à des principes éthiques dès la conception d’un algorithme, d’une base de données ou de tout autre outil technologique.

Le projet de recherche Legalia, qu’elle dirige avec Hugo Cyr, doyen de la Faculté de science politique et de droit de l’UQAM, et Sebastien Gambs, professeur au Département d’informatique de l’UQAM, est révélateur. Avec comme objectif de développer une éthique de l’intelligence artificielle dans les domaines du droit et de la justice, il met à contribution des partenaires universitaires issus de domaines aussi variés que les études internationales, les sciences juridiques, la responsabilité sociale et environnementale en gestion, les sciences politiques et la linguistique. « Mon approche, c’est d’adjoindre systématiquement aux projets de recherche des gens qui viennent d’un domaine où ils ont l’habitude de se poser ce genre de questions, de les écouter et de les faire participer à la réflexion. C’est très enrichissant. »

Discrimination

Avec Hugo Cyr et Sebastien Gambs, ainsi que Dominic Martin, professeur au Département des organisations et des ressources humaines, elle dirigera aussi, dès l’été 2018, un projet de recherche sur l’égalité, la discrimination et l’intelligence artificielle.

La question de la discrimination se révèle particulièrement intéressante puisque les outils d’aide à la décision et les systèmes automatisés de décision ont le potentiel de détecter et d’enrayer les biais discriminatoires, mais aussi de les amplifier s’ils ne sont pas conçus avec soins. Elle met en exergue la question de la qualité et de la variété des données avec lesquelles sont entraînés les algorithmes. « C’est très compliqué, assure-t-elle. Ce n’est pas toujours possible d’avoir des données qui vont être équilibrées. »

Un autre champ de recherche qui touche l’éthique de l’intelligence artificielle, dans lequel elle est présentement très active, concerne l’apprentissage d’informations socialement pertinentes tout en protégeant la vie privée et la sécurité des individus. Un des défis consiste à empêcher, même lorsque les données sont anonymisées, d’identifier des personnes en reconstruisant des liens entre les informations. « Ce n’est pas toujours évident, affirme-t-elle, parce que si vous enlevez trop d’informations ou de données, vous n’avez plus rien. Si vous n’en enlevez pas assez, vous ratez votre objectif parce que vous apprenez des choses qui permettraient d’identifier, par exemple, des patients dans le contexte de la santé. »

Prévenir la dépression grâce à l’IA

Marie-Jean Meurs réalise des recherches pour que l’intelligence artificielle respecte des principes éthiques, mais aussi pour qu’elle serve d’outil pour résoudre des problèmes de société. L’un de ses projets de recherche vise à détecter les signes avant-coureurs de dépression et d’anorexie à l’aide de textes publiés par des internautes dans des forums et des réseaux sociaux. Actuellement, elle réalise des jeux d’entraînement et des tests à l’aide d’un corpus de données fourni par la conférence internationale eRIsk de l’initiative CLEF. Les données proviennent des sous-sections de la plateforme sociale Reddit, qui s’apparente à un regroupement de forums de discussions. « En plus de détecter si effectivement quelqu’un est en phase de dépression ou s’en approche, un des enjeux supplémentaires est de le détecter le plus tôt possible, avec le moins de publications possible, indique Marie-Jean Meurs. Si les modérateurs de certains forums sont alertés rapidement, ils peuvent facilement intervenir auprès des gens susceptibles d’être en danger. » Ces démarches pourraient déboucher sur un outil qui avertirait des modérateurs, qui n’ont pas le temps de lire tous les textes générés sur leur plateforme, si des utilisateurs ont besoin d’être orientés vers du soutien ou des ressources psychologiques.