Humaine, trop humaine l’intelligence artificielle?

Jean-François Venne
Collaboration spéciale
L’IA se compose d’algorithmes, mais ceux-ci ne sont pas neutres. Ils sont programmés et fournis en données par des humains, eux-mêmes susceptibles d’avoir des partis pris conscients ou inconscients.
Image: Getty Images L’IA se compose d’algorithmes, mais ceux-ci ne sont pas neutres. Ils sont programmés et fournis en données par des humains, eux-mêmes susceptibles d’avoir des partis pris conscients ou inconscients.

Ce texte fait partie du cahier spécial Recherche

En janvier dernier, l’Institut canadien de recherches avancées (ICRA) octroyait 29 nouvelles chaires en intelligence artificielle (IA), dont 10 à des membres de l’Institut québécois d’intelligence artificielle Mila. Golnoosh Farnadi, professeure adjointe à HEC Montréal, est l’une des heureuses élues. Elle s’intéresse notamment aux biais et à la discrimination dans l’IA. Ce champ de recherche encore très jeune gagne en popularité à mesure que les applications d’intelligence artificielle sont déployées dans la société et les entreprises.

Les effets de l’usage

Pendant ses études de doctorat en Belgique, la chercheuse d’origine iranienne travaillait sur des approches d’IA capables de déduire des traits de personnalités à partir du contenu généré par les gens sur les réseaux sociaux. Elle tentait par exemple de savoir si un utilisateur était plutôt extraverti ou introverti.

Ces outils pourraient servir à raffiner les méthodes de publicité ciblée ou encore les systèmes de recommandation qui visent, entre autres choses, à individualiser les propositions de listes de chansons ou de vidéos sur certaines applications. La chercheuse encaisse toutefois un choc lorsque des employeurs la contactent parce qu’ils aimeraient se servir de cette approche pour filtrer leurs candidats dans des processus d’embauche. Une telle utilisation pourrait facilement engendrer de la discrimination. D’autant que ces approches restent à améliorer et montrent un niveau de précision d’environ 60 à 70 %.

« Soudainement, j’ai compris que certaines personnes ou organisations pouvaient appliquer les résultats de mes travaux à des fins auxquelles je n’avais pas pensé, susceptibles de créer des problèmes, raconte-t-elle. C’est à ce moment-là que j’ai commencé à m’intéresser aux biais et à la discrimination dans l’intelligence artificielle. »

Le rôle des données

Elle n’est bien sûr pas la première à s’inquiéter des usages potentiellement malveillants de l’IA, notamment lorsque cette technologie est jumelée à d’autres, comme les caméras à très haute résolution. L’IPVM, une autorité mondiale en matière de vidéosurveillance, révélait en novembre dernier que la police chinoise utilise une caméra basée sur l’IA et sur des analyses raciales pour reconnaître automatiquement les Ouïgours — une minorité persécutée par le gouvernement chinois — et les distinguer des Hans.

Si les données sont faussées, partiales ou discriminatoires, le modèle risque fort de l’être lui aussi

 

Les glissements n’atteignent pas toujours ce degré extrême, mais ils sont potentiellement très nombreux. L’IA peut engendrer des biais et de la discrimination, notamment dans les secteurs financiers et de la santé où elle se déploie de plus en plus. D’où vient ce risque ?

« En intelligence artificielle, les modèles s’entraînent et génèrent des décisions sur la base des données avec lesquelles on les alimente, rappelle Golnoosh Farnadi. Donc, si les données sont faussées, partiales ou discriminatoires, le modèle risque fort de l’être lui aussi. » L’IA se compose certes d’algorithmes, mais ceux-ci ne sont pas neutres. Ils sont programmés et fournis en données par des humains, eux-mêmes susceptibles d’avoir des partis pris conscients ou inconscients.

Des interprétations complexes

Deux éléments au moins viennent compliquer la tâche de ceux et celles qui développent des outils d’IA. Le premier tient au fonctionnement de l’apprentissage automatique. Dans cette approche, les algorithmes traitent une grande quantité de données en tenant compte d’une vaste somme de paramètres. Cependant, il reste très difficile de déterminer le processus qui mène à une décision. C’est le phénomène de la boîte noire.

Or, cette opacité pose problème. Cela pourrait signifier, par exemple, que l’on ne sache pas pourquoi un prêt ou une demande d’assurance a été refusé à un demandeur. « Donc, si le refus vient d’un biais du modèle, qui tend à rejeter davantage les demandes d’une femme ou d’une personne noire, on ne le saura pas », souligne la chercheuse.

Autre défi : surmonter la difficulté de traduire dans des modèles mathématiques des concepts complexes, comme l’équité ou la justice. Ces concepts subjectifs peuvent trouver des interprétations divergentes selon les secteurs et peuvent aussi être compris différemment par plusieurs individus. Il reste ainsi un travail à effectuer, notamment du côté des gouvernements, pour produire des cadres de définition qui permettent d’intégrer plus facilement ces éléments dans les modèles d’IA.

Golnoosh Farnadi affiche son optimisme devant ces défis. Elle estime qu’il est tout à fait possible de limiter les risques de biais et de discrimination en raffinant les modèles. L’écosystème montréalais et canadien de l’IA serait d’ailleurs bien situé pour apporter sa contribution à cette évolution. « Un centre comme Mila [l’Institut québécois d’intelligence artificielle] attire beaucoup de talents venus d’un peu partout dans le monde, rappelle-t-elle. Cette diversité en soi constitue un outil de plus pour prendre conscience de certains biais et les surmonter. »