Les hommes en complet, les femmes en bikini

«L’utilisation d’algorithmes en intelligence artificielle, des programmes capables d’apprendre par eux-mêmes, est ici pour de bon», écrit l'auteur.
Photo: iStock «L’utilisation d’algorithmes en intelligence artificielle, des programmes capables d’apprendre par eux-mêmes, est ici pour de bon», écrit l'auteur.

On apprenait récemment dans Le Devoir que Clearview AI, une société américaine qui a mis au point une technologie controversée de reconnaissance faciale basée sur des algorithmes d’intelligence artificielle, avait exercé une « surveillance de masse » illégale au Canada, violant ainsi la vie privée de nombreux citoyens à travers le pays. Cette nouvelle est tombée au moment où, fin janvier, deux chercheurs des universités Carnegie Mellon et George-Washington, aux États-Unis, publiaient les résultats d’une expérience troublante au cours de laquelle ils ont utilisé deux programmes informatiques, eux aussi basés sur des algorithmes d’intelligence artificielle, pour générer des images à partir d’une photo tronquée.

Ainsi, dans le cas où la photo tronquée montrait la tête d’un homme, le programme a généré un corps vêtu d’un complet (pantalon, veston et cravate) dans 43 % des cas. Mais si la photo montrait la tête d’une femme, dans 53 % des cas, le corps généré n’était vêtu que d’un simple bikini. Même en utilisant une photo montrant la tête pourtant bien connue de la représentante étasunienne Alexandria Ocasio-Cortez (AOC), celle-ci s’est automatiquement retrouvée courtement vêtue… En passant, ne cherchez pas cette image sur le Web ; par souci d’éthique, les chercheurs n’ont pas publié le photomontage en question dans leur article. On devine l’usage qu’en auraient fait les adversaires politiques d’AOC…

Comment fonctionnent, au juste, ces algorithmes de génération d’images ? Leur approche est basée sur celle des générateurs de textes, des programmes d’auto-apprentissage qui se basent sur des cooccurrences et la proximité des mots dans divers textes pour « apprendre » les rudiments du langage.

Et cela fonctionne : il y a de fortes chances que, lors de votre dernier clavardage en ligne avec le service à la clientèle d’une grande compagnie, ce soit en réalité un algorithme qui ait analysé votre demande et vous ait proposé diverses solutions. Dans le cas des images, les algorithmes fonctionnent là aussi par analyse de proximité et de cooccurrence des éléments d’une image donnée, des pixels au lieu des mots. Et tant pour les textes que pour les images, l’apprentissage de ces algorithmes se base sur la plus grande base de données qui soit, Internet, avec toutes les distorsions que cela peut entraîner…

Se nourrir de préjugés

 

Car ces programmes générateurs de textes ou d’images, conçus par des humains en chair et en os, ne font rien de plus que développer des « routines » automatiques, basées sur les informations qu’on leur fournit. En d’autres termes, la qualité du produit final dépend essentiellement de la qualité du matériau de base. Garbage in, garbage out, serait-on tenté de dire. Car cela donne de curieux résultats, parfois. Ainsi, lorsque l’on tape le mot « homme » dans plusieurs de ces moteurs de génération de textes, on obtient des mots reliés au travail, tandis que si on tape le mot « femme », le champ lexical est plutôt celui de la famille. Dans le cas des images, l’exemple ci-dessus est éloquent : complet pour les hommes, bikini pour les femmes…

Ce que ces algorithmes illustrent, en fin de compte, ce sont les préjugés inhérents que l’on trouve couramment sur Internet, où les remarques masculinistes, sexistes, misogynes, homophobes, racistes, etc., sans compter les images de femmes dénudées, font florès et se retrouvent ainsi imbriquées au plus profond des programmes qui, de plus en plus, ont une incidence sur nos vies. Mais là où ces algorithmes deviennent véritablement insidieux, même dangereux, c’est lorsqu’ils sont utilisés dans les processus de recrutement de personnel, ou pour faire de la reconnaissance faciale, de la télésurveillance, soutenir les activités de la police ou des services de renseignement, etc. Les algorithmes de génération d’images sont aussi de plus en plus utilisés pour générer de fausses images et vidéos pornographiques mettant en scène des personnes connues, très majoritairement des femmes.

Il existe heureusement des solutions aux problèmes soulevés par ces programmes, selon les chercheurs étasuniens à l’origine de la recherche sur les générateurs d’images. Il faut d’abord que les compagnies qui développent ces algorithmes « ouvrent » leurs codes, afin que des spécialistes puissent les analyser. Il faut aussi que les gouvernements s’en mêlent afin d’encadrer et de réguler les pratiques basées sur l’utilisation de ces algorithmes. Enfin, il est aussi important de tester les programmes à fond avant de les rendre publics, afin de s’assurer qu’ils sont exempts de préjugés.

L’utilisation d’algorithmes en intelligence artificielle, des programmes capables d’apprendre par eux-mêmes, est ici pour de bon. Nous connaissons les enjeux qu’ils soulèvent et nous avons des pistes de solution. Il ne reste plus qu’à les mettre en place !

À voir en vidéo