Et si Siri et compagnie encourageaient les stéréotypes féminins?

Etienne Plamondon Emond Collaboration spéciale
Hilary Bergen, chercheuse de l’Université Concordia
Photo: Université Concordia Hilary Bergen, chercheuse de l’Université Concordia

Ce texte fait partie d'un cahier spécial.

La tendance demeure lourde : la majorité des assistants à commande vocale répondent avec un timbre de voix féminin. Certains offrent la possibilité de changer pour une voix masculine, mais la version féminine demeure, règle générale, l’option par défaut.

Ce phénomène, qui concerne tant Siri d’Apple qu’Alexa d’Amazon, Cortana de Microsoft ou l’assistant Google, préoccupe la chercheuse Hilary Bergen. L’étudiante en lettres et sciences humaines à l’Université Concordia s’est attardée aux assistants personnels intelligents dans ses travaux de doctorat sur la désincarnation féminine dans les technologies. Dans son analyse, elle constate une persistance des stéréotypes. « En féminisant les voix numériques, les programmeurs et concepteurs normalisent l’idée que les femmes sont non seulement plus adaptées au rôle de secrétaire, mais aussi plus aptes à performer dans les rôles de soutien et dans le travail émotionnel (emotional labor). »

Le concept de travail émotionnel, plus répandu dans la littérature anglo-saxonne, sert à désigner un fardeau sous-estimé ou rarement rémunéré à sa juste valeur dans plusieurs emplois ou postes traditionnellement occupés par des femmes : celui de réguler ses émotions de manière à assurer, même dans un contexte stressant, le confort des clients ou des collègues, comme observé chez les hôtesses de l’air et les infirmières. L’expression tend depuis quelques années à s’élargir au sujet des exigences semblables dans l’ensemble de la vie sociale.

Des systèmes automatisés empruntent des voix féminines depuis longtemps, comme dans le cas des GPS et des boîtes vocales téléphoniques. En revanche, les nouveaux dispositifs sont accessibles 24 heures sur 24, sept jours sur sept, pour des requêtes qui ne se limitent pas seulement à la gestion de fichiers ou de calendriers de travail. « Il s’agit de la première voix que vous pourriez entendre le matin », souligne-t-elle. « Comme ils sont dans nos téléphones et nos tablettes, il y a une intimité. »

Dans ses travaux de doctorat, Hilary Bergen a interpellé de multiples façons l’application Siri, puis elle a noté les dialogues du logiciel. Lorsque la chercheuseposait à l’assistant à commande vocale des questions à son sujet ou sur ce qu’il ressentait, la voix numérique féminine retournait souvent la conversation vers l’utilisatrice ou indiquait n’y avoir jamais réfléchi. Lorsque la doctorante lui demandait qui était son patron, Siri annonçait : « Vous l’êtes. » À la question « êtes-vous une entité consciente ? » le logiciel déclarait : « Je le suis, si vous l’êtes. » La chercheuse a publié ses constats dans un texte, diffusé dans la revue Word and Text en 2016, qu’elle a intitulé « I’d blush if I could » (« Je rougirais si je le pouvais »), une allusion à la réponse communiquée par l’application à une insulte vulgaire.

Il n’y a aucun doute à ses yeux à savoir que les géants de l’industrie du numérique misent sur des voix s’apparentant à celles de la conjointe, de la mère ou de la secrétaire pour gagner la confiance des utilisateurs et mieux faire tomber leur méfiance dans le partage de données personnelles et la surveillance quotidienne inhérente à ces outils.

Néanmoins, elle juge que les répliques révèlent les préjugés des développeurs logiciels, en vaste majorité des hommes. Selon un sondage international mené par Stack Overflow en 2018, moins de 7 % des personnes qui exerçaient ce métier à travers le monde étaient des femmes. « Cela aiderait d’avoir une meilleure diversité lors de la conception de ces dispositifs, mais il y a un problème plus grand qui doit être soulevé dans notre monde. » Elle ne croit pas que le recours à une voix de genre neutre constitue une solution.

« L’intelligence artificielle fonctionne comme un miroir de la société humaine », juge-t-elle. « Il ne s’agit pas d’un enjeu de nouvelles technologies, mais d’un vieux déséquilibre de pouvoir entre les hommes et les femmes qui continue de se poursuivre. »