Le défi 10 ans de Facebook est-il utilisé pour nourrir un algorithme de reconnaissance des visages?

« Le divertissement occulte souvent la réflexion sur l’impact et les enjeux d’une technologie », résume André Mondoux, professeur de communication à l’UQAM et cofondateur du Groupe de recherche sur l’information et la surveillance au quotidien (GRISQ).
Photo: Jonathan Nackstrand Agence France-Presse « Le divertissement occulte souvent la réflexion sur l’impact et les enjeux d’une technologie », résume André Mondoux, professeur de communication à l’UQAM et cofondateur du Groupe de recherche sur l’information et la surveillance au quotidien (GRISQ).

L’appel au partage aurait un objectif caché. En invitant les utilisateurs de ses réseaux à témoigner en deux photos de l’effet du temps sur leur visage dans le cadre du « 10 Year Challenge » — le défi 10 ans — qui actuellement anime Facebook et Instagram, la multinationale américaine cherche-t-elle plus qu’à faire sourire et émouvoir ses abonnés ? Plusieurs observateurs le pensent en voyant dans ce jeu l’occasion pour Facebook d’alimenter et d’affiner son algorithme de reconnaissance faciale, un outil utilisé par l’entreprise pour le profilage et la surveillance de ses utilisateurs.

La suspicion s’exprime d’ailleurs alors qu’un regroupement de 85 ONG américaines, piloté par l’American Civil Liberties Union (ACLU), a invité cette semaine un autre géant du numérique, Amazon, à cesser la commercialisation de son logiciel de reconnaissance des visages à des États et gouvernements, et ce, en raison des risques élevés que fait peser cette technologie issue de l’intelligence artificielle sur les libertés civiles et individuelles tout comme sur la démocratie.

« Le divertissement occulte souvent la réflexion sur l’impact et les enjeux d’une technologie, résume André Mondoux, professeur de communication à l’UQAM et cofondateur du Groupe de recherche sur l’information et la surveillance au quotidien (GRISQ). Le “10 Year Challenge” est sans doute utilisé par Facebook pour enseigner à ses algorithmes comment les gens vieillissent et comment reconnaître l’évolution d’un visage dans le temps. Ce n’est pas une mince affaire et les abonnés y répondent sans trop se questionner. »

Depuis quelques jours, des milliers de personnes, dont un grand nombre de personnalités publiques aux États-Unis comme ici au Québec, ont répondu à cet appel de l’exposition du soi en diffusant deux photos côte à côte, l’une datant de 2009 et l’autre, de 2019. L’événement fédéré par le mot-clic #10yearchallenge se veut ludique et social, même si, pour l’essayiste Kate O’Neill, auteure de Tech Humanist, il devrait surtout faire s’allumer les lumières afin d’éclairer les intentions qu’il transporte.

Elle a été la première à sonner l’alarme sur son compte Twitter samedi dernier, en quelques caractères : « Moi, il y a 10 ans : j’aurais sûrement joué avec mon âge et mes photos de profil sur Facebook et Instagram. Moi maintenant : je réfléchis à la façon dont ces données peuvent être exploitées pour apprendre à un algorithme de reconnaissance faciale à saisir l’âge et sa progression. »

Une gratuité coûteuse

Dans un billet publié mardi sur le site de magazine Wired, Mme O’Neill en rajoute en précisant que Facebook aurait très bien pu creuser dans les nombreuses photos personnelles que ses abonnés lui ont données au cours des dix dernières années, en échange de la gratuité de son service, pour entraîner son algorithme à suivre un visage dans le temps. Le défi 2009-2019 a toutefois l’avantage d’offrir, selon elle, des photos plus fiables pour témoigner de l’évolution, puisque choisies par les utilisateurs, qui peuvent avoir placé sur leur compte en 2009 des photos d’eux prises dans les années précédentes. L’ajout d’un contexte, d’un lieu, du nom d’un ami vient également densifier l’information transmise à Facebook et assure au bout du compte une plus grande efficacité du profilage.

Paradoxe

Mercredi, un appel lancé aux responsables de l’intelligence artificielle chez Facebook est resté sans réponse.

Les gens expriment de grandes préoccupations à propos de la surveillance, du profilage et du respect de leur vie privée et demandent aux gouvernements d’agir. Mais dans l’action individuelle, ils envoient un autre signal.

« Nous sommes devant un paradoxe en matière de surveillance, résume au téléphone Jean-François Gagné, professeur au Département de science politique de l’Université de Montréal qui s’intéresse à l’impact de l’intelligence artificielle, dont se nourrissent les systèmes de reconnaissance faciale, sur la démocratie et le contrôle social. Quand on regarde les sondages, les gens expriment de grandes préoccupations à propos de la surveillance, du profilage et du respect de leur vie privée et demandent aux gouvernements d’agir. Mais dans l’action individuelle, ils envoient un autre signal. »

   

Pourtant, l’avènement des systèmes de reconnaissance faciale et surtout leur amélioration constante par l’agrégation de données personnelles, dont les sources et la fiabilité ne cessent de se multiplier, ne sont pas à prendre à la légère, estime l’ACLU, qui mardi a demandé, avec 84 autres ONG, à Jeff Bezos, patron d’Amazon, de mettre fin à la vente de son système de reconnaissance faciale, Rekognition. « Les dangers de la surveillance par reconnaissance des visages ne peuvent être enrayés qu’en arrêtant son usage par les gouvernements », écrivent-ils dans une lettre rendue publique. Rappelons qu’au Canada, cette technologie a été déployée par l’Agence des services frontaliers dans les aéroports du pays dans le cadre de son programme de contrôle des voyageurs.


Opprimer les marginaux

« La surveillance par les visages donne aux agences gouvernementales une capacité sans précédent de vous suivre, de savoir qui vous êtes, où vous allez, ce que vous faites et qui vous connaissez, poursuivent-ils. Cette surveillance donne aux États de nouveaux outils pour cibler et distinguer des immigrants, des minorités religieuses ou ethniques. Elle pourrait amplifier et exacerber les préjugés actuels et historiques qui menacent des communautés ».

En décembre dernier, Google a décidé de suspendre les ventes d’un système d’intelligence artificielle lié à un outil de reconnaissance faciale, et ce, tant que les risques sociaux et politiques inhérents à cette technologie persistent, a indiqué le p.-d.g. de l’entreprise Sundar Pichai.

Dans une lettre adressée à Jeff Bezos, plusieurs employés ont demandé également à leur patron de mettre fin aux activités de l’entreprise liées à la surveillance par la reconnaissance faciale. « Nous ne devrions pas faire partie de cette industrie qui appuie ceux qui surveillent et oppriment les populations marginalisées », lui ont-ils écrit.

« Les questions soulevées par la reconnaissance des visages sont très importantes », dit Jean-François Gagné, qui estime que cette technologie peut avoir de bons côtés, mais vient comme d’autres avec « une dualité d’usage ».

« L’initiative des ONG qui s’adressent à Amazon est d’ailleurs louable puisqu’elle invite à débattre de ce sujet qu’il est nécessaire de plus politiser. Sur la reconnaissance faciale, il faut parler, poser des questions et trouver des solutions ensemble », pour éviter que cette technologie, en cherchant à construire l’avenir, contribue, la faute à l’aveuglement et au manque de critiques, à son effondrement.

1 commentaire
  • Claude Coulombe - Abonné 17 janvier 2019 14 h 06

    « 10 Year Challenge » - Complot, pas impossible, mais potentiellement dangereux, c'est certain

    Le vieillissement est un problème bien connu en reconnaissance faciale et en biométrie. Être capable de reconnaître un individu tout au long de sa vie représente un défi. Pour trouver des articles scientifiques sur le sujet, il suffit de taper "facial recognition" "ageing process" dans son moteur de recherche préféré.

    De nos jours, les systèmes reconnaissance faciale à base de réseaux de neurones profonds (particulièrement les réseaux convolutifs) sont capables d'apprendre et de prédire l'effet du vieillissement sur un visage. Ces réseaux sont capables de généraliser et de prédire l'effet du vieillissement sur un nouveau visage, un visage inconnu. On peut même intégrer d'autres facteurs comme le tabagisme, l'alcool, l'exposition au soleil, dans la mesure où l'on dispose de ces informations.

    Toutefois, pour y arriver, ces algorithmes très performants doivent disposer de grandes quantités de données bien étiquetées (photo d'un visage associée à un âge) pour entraîner ces modèles profonds selon l'approche bien maîtrisée de l'apprentissage supervisé. Typiquement on parle de milions d'images.

    Il n'est pas impossible que des individus à l'éthique douteuse puisse concevoir un jeu comme le « 10 Year Challenge » pour recueillir à leur insu les données nécessaire pour entraîner de tels modèles. L'usage de jeux est d'ailleurs une technique bien connue pour recueillir des données.

    Ces technologies peuvent servir le bien, en médecine, pour identifier de vrais criminels, aider à la recherche d'enfants disparus, ou servir le mal en instituant des systèmes de surveillance des populations à la «Big Brother». On ne pourra pas «désinventer» ces technologies, on peut toutefois encadrer leurs utlisations par des principes éthiques et éventuellemnt des lois. Par la «Déclaration de Montréal» pour un développement responsable de l'IA, la communauté IA de Montréal montre la voie au monde entier.

    Claude Coulombe
    doctorant
    scientifique des données