Trois questions sur la vie privée au philosophe Jocelyn Maclure

Les plus grandes promesses s’accompagnent des peurs des plus grandes dérives. Pour comprendre quels défis éthiques soulèvent les nouvelles technologies de reconnaissance faciale, Le Devoir a posé trois questions au philosophe Jocelyn Maclure, président de la Commission de l’éthique en science et en technologie.

En quoi ces technologies vont-elles plus loin, par rapport à la biométrie par les empreintes digitales par exemple ?

Les technologies de reconnaissance et d’analyse faciales créent de nouvelles « occasions » de discrimination. Par exemple, si un employeur lors d’une entrevue d’embauche, plutôt que de s’en tenir aux réponses des candidats, a accès au niveau d’anxiété ressenti ou à d’autres émotions, il pourrait décider de ne pas les embaucher sur la simple base de ce qu’on fait dire à leur état affectif. Le for intérieur, notre conscience, est le dernier rempart contre la possibilité que d’autres aient accès à nos pensées, à nos émotions. Ce dernier refuge devient plus poreux, étant donné l’efficacité grandissante des algorithmes à déterminer notre orientation sexuelle, nos opinions politiques, nos émotions.

Ça dépasse donc le droit à la vie privée ?

Le droit à la vie privée existe déjà, mais quand on parle de technologies qui peuvent donner un accès direct à des états mentaux intérieurs, c’est autre chose. Je pense qu’elles imposent de spécifier davantage le droit à la vie privée. Un droit dérivé du droit à la vie privée commence à émerger dans les écrits universitaires en éthique : le droit à la protection de notre intériorité.

Comment décririez-vous ce « droit à l’intériorité » ?

On doit garder le contrôle sur ce qu’on choisit de dévoiler par rapport à notre vie intérieure, à notre vie subjective, à notre vie intime. Le même questionnement se pose en neuro-éthique pour les technologies qui permettent d’étudier le cerveau et d’avoir accès à des informations relatives à la vie cérébrale des personnes. C’est absolument crucial pour moi : le libre arbitre devrait nous permettre de dévoiler seulement ce dont on a envie sur nos émotions, sur nos craintes, sur ce qui nous rend anxieux, ce qui nous rend heureux.

Les préjugés des algorithmes

« Il n’y a aucun système qui prend une décision à la place de quelqu’un », statue d’emblée Marie-Jean Meurs, professeure d’informatique à l’UQAM. Ce n’est pas donc pas une intention malveillante qui fait en sorte que la reconnaissance faciale se trompe moins souvent si vous êtes un homme blanc, tel que l’a montrée récemment une étude du Massachusetts Institute of Technology (MIT).

Ce sont plutôt les concepteurs de tels logiciels qui portent tout de même la responsabilité d’avoir créé des machines biaisées, explique Mme Meurs, en ayant omis d’alimenter leurs algorithmes avec assez de diversité. « Ça prend des données pour entraîner ces algorithmes. C’est un peu comme de grosses roues à eau qui attendent de l’eau pour tourner. Si vous donnez une eau qui a toujours la même composition [par exemple des photos d’hommes blancs d’âge moyen], la roue va toujours tourner dans le même sens et à la même vitesse », dit-elle.

Consultez la suite du dossier