Pour un moratoire sur la reconnaissance faciale

«La reconnaissance faciale est reconnue pour son très faible niveau de fiabilité, en particulier pour les personnes racisées», souligne l'auteure.
Photo: iStock «La reconnaissance faciale est reconnue pour son très faible niveau de fiabilité, en particulier pour les personnes racisées», souligne l'auteure.

Montréal est un des principaux centres mondiaux de l’intelligence artificielle (IA). Notre talent et notre inventivité nous ont permis de tirer notre épingle du jeu dans cette industrie qui définira le futur. Montréal se positionne d’ailleurs comme un hub où l’IA est mise au service du bien commun avec des initiatives de portée internationale, comme la Déclaration de Montréal, la plateforme AI Commons ou encore l’Institut d’éthique IA de Montréal. Il est donc préoccupant de constater l’apathie de l’administration montréalaise devant la possibilité que le Service de police de Montréal (SPVM) utilise en secret des technologies de reconnaissance faciale en dépit des risques pour la vie privée qu’elles soulèvent.

Cette technologie fonctionne de manière à permettre la comparaison de photos de suspects potentiels avec une base de données composée de photos d’arrestation. Mais quelles sont ces données utilisées pour procéder à une reconnaissance faciale ? Cela peut-être n’importe quelle image d’un suspect. Une image filmée par une caméra de surveillance sur le lieu d’un crime, par exemple, mais aussi une photographie tirée du réseau social favori d’un suspect. Qui eût cru que vos photos Facebook pourraient un jour aider à vous incriminer.

Pire encore, une étude de l’Université Georgetown aux États-Unis a recensé des problèmes majeurs dans la façon dont les policiers utilisent les systèmes de reconnaissance faciale. Ils ont répertorié des pratiques telles que la comparaison de sketchs dessinés ou encore de photos de personnalités connues afin d’identifier un suspect. Afin d’accroître le nombre de correspondances, il arrivait même que les policiers manipulent les images avec des logiciels graphiques, allant jusqu’à modifier la forme de la bouche ou des yeux. À New York, des enfants aussi jeunes que 11 ans ont été fichés par le service de police en dépit des risques élevés de fausses correspondances pour les visages jeunes.

On pourrait croire que la reconnaissance faciale, popularisée par les téléséries policières comme CSI, permet d’identifier un suspect en quelques secondes. En fait, cette technologie est plutôt reconnue pour son très faible niveau de fiabilité, en particulier pour les personnes racisées.

Testée par l’American Civil Liberties Union, la technologie Rekognition, développée par Amazon et utilisée par plusieurs corps de police dans le monde, a faussement identifié 28 membres du Congrès américain comme étant des criminels. À Londres, des demandes d’informations effectuées auprès de son service de police par le journal The Independant ont révélé que la technologie qu’ils utilisent identifiait faussement des individus comme étant des criminels dans 96 % des cas. Les risques de fausses accusations laissent planer une crise pour notre système judiciaire déjà surchargé.

À Montréal, nous sommes dans l’inconnu. En octobre 2018, la Ville de Montréal faisait l’acquisition de 730 caméras de vidéosurveillance, dont 415 étaient destinées au SPVM. Néanmoins, le SPVM refuse de « confirmer » ou d’« infirmer » s’il utilise une telle technologie. Même nos représentants municipaux sont maintenus dans l’ignorance. Nous savons pourtant que cette technologie est employée depuis plus d’un an à Toronto et que la Sûreté du Québec a déjà publié un avis d’intérêt pour ce même type de technologie.

Malgré ces signaux alarmants, l’administration montréalaise semble peu encline à réglementer cette technologie. Il n’existe actuellement aucun garde-fou démocratique pour encadrer son utilisation ni de règle sur la façon d’utiliser les données. Quand des technologies de surveillance à grande échelle sont déployées en secret et sans reddition de comptes auprès du public, on ne peut s’attendre qu’à des dérapages.

C’est pourquoi je salue l’initiative du conseiller municipal indépendant Marvin Rotrand et du conseiller de l’opposition officielle Ensemble Montréal Abdelhaq Sari. Ils proposent que notre métropole, à l’instar d’autres villes comme San Francisco, Cambridge ou Oakland, adopte un moratoire sur l’utilisation des technologies de reconnaissance faciale, le temps qu’un comité d’experts externes se penche sur la façon de les encadrer. Une motion sera débattue au conseil municipal les 19 et 20 août prochains à ce sujet. Son adoption signifierait que notre administration municipale compte se porter garante du respect du droit à la vie privée de tous les résidents montréalais.

Mais j’irais encore plus loin ; il est plus que temps que la Ville de Montréal, épicentre de la révolution de l’IA, se dote d’un comité permanent pour réfléchir à la gouvernance future de la ville intelligente. Nombreuses sont les questions technologiques qui méritent des délibérations réfléchies et ouvertes. La reconnaissance faciale n’est que la plus pressante.

LE COURRIER DES IDÉES

Recevez chaque fin de semaine nos meilleurs textes d’opinion de la semaine par courriel. Inscrivez-vous, c’est gratuit!


En vous inscrivant, vous acceptez de recevoir les communications du Devoir par courriel.

2 commentaires
  • Daniel Francoeur - Abonné 17 août 2019 00 h 42

    La question qu’on n’ose pas nous poser : Acceptez-vous qu’on vous épie continuellement sans raison?

    Ce qui me dérange avec cette nouvelle tendance mondiale, c’est qu’elle nous place tous sans raison particulière sur le siège de l’accusé potentiel. Ainsi, la prise d’images faciales non autorisée pour alimenter des banques de suspects équivaut à faire fi de la présomption d’innocence des citoyens, et sans raison particulière ceux-ci se retrouvent tous derrière la vitre d’identification des suspects

    De plus, les gouvernements agissent présentement en complices et en spectateurs passifs en refusant de protéger notre droit à l’image et à la vie privée. Ils permettent alors à différents groupes privés et publics de se monter des banques de données dont nous sommes les éléments. Et, puisque le secteur privé a l’habitude de considérer qu’il peut faire tout ce qui n’est pas couvert par la loi, il y a fort à parier que ces données, dont la non-fiabilité est démontrée, nous sont présentement accolées en catimini et échangées, contre faveurs, à notre insu.

    Selon moi, ceci est un non-sens dans un état de droit et nous rapproche dangereusement du système de pointage du «bon citoyen» en temps réel utilisé par la Chine.

  • Cyril Dionne - Abonné 17 août 2019 09 h 50

    Non merci

    « Afin d’accroître le nombre de correspondances, il arrivait même que les policiers manipulent les images avec des logiciels graphiques, allant jusqu’à modifier la forme de la bouche ou des yeux. »

    Cela rime avec la fabrication de preuves où les cadres de la Sûreté du Québec sont passés maître dans le domaine. En fait, tous les services policiers. Staline en serait fier.

    Ceci dit, la reconnaissance faciale est la première étape d’un « Big Brother » qui est la représentation de l’État policier et de la perte des droits individuels de la population. Combiner cela avec les capteurs physiologiques sans fil qui ont été développés notamment au MIT, vous pouvez non seulement reconnaître une personne dans un aéroport ou sur une place publique équipée de caméras, mais vous pouvez presque connaître ses intentions instantanément à partir d’un profil psychologique et physiologique (rythme cardiaque, respiration etc.) issu des capteurs biométriques sans fil.

    Non merci à la manipulation des données biométriques et des humains. Je suis de tout cœur pour l’intelligence artificielle, mais pas pour la dictature et tyrannie technologique. Et celle-ci viendra assez vite, bien plus vite qu’on le pense. En fait, c’est déjà une réalité en Chine.