

La reconnaissance faciale, en quête d'un visage humain décrypté
Jusqu'où peut-on — et veut-on — aller avec l'«informatique affective»?
Les plus grandes promesses s’accompagnent des peurs des plus grandes dérives. Pour comprendre quels défis éthiques soulèvent les nouvelles technologies de reconnaissance faciale, Le Devoir a posé trois questions au philosophe Jocelyn Maclure, président de la Commission de l’éthique en science et en technologie.
En quoi ces technologies vont-elles plus loin, par rapport à la biométrie par les empreintes digitales par exemple ?
Les technologies de reconnaissance et d’analyse faciales créent de nouvelles « occasions » de discrimination. Par exemple, si un employeur lors d’une entrevue d’embauche, plutôt que de s’en tenir aux réponses des candidats, a accès au niveau d’anxiété ressenti ou à d’autres émotions, il pourrait décider de ne pas les embaucher sur la simple base de ce qu’on fait dire à leur état affectif. Le for intérieur, notre conscience, est le dernier rempart contre la possibilité que d’autres aient accès à nos pensées, à nos émotions. Ce dernier refuge devient plus poreux, étant donné l’efficacité grandissante des algorithmes à déterminer notre orientation sexuelle, nos opinions politiques, nos émotions.
Ça dépasse donc le droit à la vie privée ?
Le droit à la vie privée existe déjà, mais quand on parle de technologies qui peuvent donner un accès direct à des états mentaux intérieurs, c’est autre chose. Je pense qu’elles imposent de spécifier davantage le droit à la vie privée. Un droit dérivé du droit à la vie privée commence à émerger dans les écrits universitaires en éthique : le droit à la protection de notre intériorité.
Comment décririez-vous ce « droit à l’intériorité » ?
On doit garder le contrôle sur ce qu’on choisit de dévoiler par rapport à notre vie intérieure, à notre vie subjective, à notre vie intime. Le même questionnement se pose en neuro-éthique pour les technologies qui permettent d’étudier le cerveau et d’avoir accès à des informations relatives à la vie cérébrale des personnes. C’est absolument crucial pour moi : le libre arbitre devrait nous permettre de dévoiler seulement ce dont on a envie sur nos émotions, sur nos craintes, sur ce qui nous rend anxieux, ce qui nous rend heureux.
Jusqu'où peut-on — et veut-on — aller avec l'«informatique affective»?
La capacité à reconnaître quelqu'un en moins d’une seconde n’est pas donnée à tout le monde.
Les travaux du professeur Bernhard Thomaszewski ont notamment servi dans des films d’animation.