Attention à la surveillance technologique généralisée

À Singapour, ville ultra-connectée, à peine plus de 20% de la population utilise une application de «contact tracing».
Photo: Catherine Lai Agence France-Presse À Singapour, ville ultra-connectée, à peine plus de 20% de la population utilise une application de «contact tracing».

En quête de solutions pour engager le déconfinement, plusieurs applications mobiles sont développées de par le monde sur la base d’outils de contact tracing (« application de recherche de contacts »), pour anticiper les risques de contamination. Pourtant, les conditions d’efficacité de ces solutions laissent présager dans de nombreux cas leur inutilité, alors que les risques d’atteinte aux droits et libertés sont, eux, bien réels.

D’abord, l’efficacité de telles applications tient au nombre d’utilisateurs et à la quantité de données disponibles. Des études montrent qu’au moins 60 % de la population devrait utiliser ces applications pour assurer leur efficacité. Certains pays seraient prêts à contraindre leur population à télécharger une telle application et à conditionner les activités et déplacements à son utilisation. Au Québec, cela serait assurément perçu comme trop intrusif.

À l’inverse, si ces applications reposent sur le consentement, il n’est pas certain que tout le monde en accepte l’utilisation. À Singapour, ville ultra-connectée, le gouvernement annonce qu’à peine plus de 20 % de la population l’utilise. L’acceptabilité sociale est un facteur essentiel de la confiance et toute forme de pression sociale exercée sur les citoyens ferait douter de la réalité du consentement. Par ailleurs, l’ensemble de la population n’a pas accès à un téléphone intelligent. Au Québec, moins d’un aîné sur deux en possède un, alors qu’ils sont les plus à risque. La fracture numérique va exclure une partie de la population, souvent la plus vulnérable. Ces hypothèses montrent qu’il y a peu de chance d’avoir suffisamment d’utilisateurs et données pour produire un résultat fiable avec ces outils.

Une autre condition tient à la qualité des données. Ces dispositifs reposent parfois sur l’utilisation de données déclaratives qui pourraient s’avérer erronées. Les individus peuvent se tromper, omettre des informations ou même mentir sur leur état de santé. De plus, les études tendent à montrer qu’une grande partie des porteurs de la COVID-19 sont asymptomatiques, soit autant d’utilisateurs pour lesquelles l’information recueillie ne sera pas fiable. Plus globalement, toutes les caractéristiques de la maladie et son impact sur certains sujets sont encore mal connus. Nous ne disposons pas du recul nécessaire pour mieux évaluer la pertinence des modèles utilisés et le calcul du risque de contamination, si bien que le taux d’erreur peut être élevé et fausser l’information collectée et transmise par un système de « tracking ».

 
60 %
C’est la proportion de la population qui devrait utiliser les applications indiquant si l’utilisateur a été en contact avec des personnes infectées pour assurer l’efficacité de ces outils.

Un excès de confiance envers ces applications pourrait décevoir, d’autant que ces outils ont un impact psychologique fort et peuvent contribuer à créer un faux sentiment de sécurité qui pourrait démobiliser. Il suffit de considérer la fausse promesse dans l’intitulé même de certaines de ces applications, comme StopCovid en France ou Immuni en Italie, pour s’en convaincre. Ces technologies ne sont potentiellement qu’une partie de la solution et leur utilisation nécessite un accompagnement humain considérable, comme à Singapour, ainsi qu’une politique d’accès aux tests et d’isolement des personnes contaminées.

Si l’efficacité de ces applications demeure incertaine, les risques d’atteintes aux droits et libertés sont avérés. […] Le déploiement de ces applications pourrait en outre générer des discriminations, à l’égard de ceux qui refuseraient de les utiliser ou qui n’y auraient pas accès, telles les populations défavorisées ou les personnes âgées, et qui pourraient se voir interdire l’accès à des lieux ou services voire à leur travail. La Commission ontarienne des droits de la personne a ainsi alerté sur les risques d’exclusion des populations déjà particulièrement fragilisées par la pandémie. La discrimination à leur égard pourrait être renforcée par l’usage de ces technologies.

Enfin, à plus long terme, l’utilisation de ces technologies contribuera à la banalisation d’une surveillance technologique généralisée. Il sera plus facile de déployer à l’avenir de tels procédés si les individus ont intériorisé leur utilisation pour réguler le fonctionnement de l’espace public. D’un point de vue juridique, les règles adoptées pour permettre le recours à ces technologies doivent rester exceptionnelles et limitées dans le temps. Par le passé, la proclamation de l’état d’urgence aux États-Unis et en Europe a conduit à l’intégration de mesures spéciales au droit commun. Il ne faudrait pas que l’état d’urgence sanitaire actuelle nous conduise aux mêmes résultats.

Ce « solutionnisme technologique » n’est pas la solution providentielle. Alors que l’épidémie va s’installer dans le temps, il convient d’évaluer les réels gains que peut nous apporter la technologie sans fonder sur elle seule tous nos espoirs, au détriment d’implications humaines, certes lourdes, mais indispensables. Certains exemples démontrent l’intérêt d’utiliser l’IA, pour aider à mieux comprendre le fonctionnement de la maladie ou la mise au point d’un vaccin. Le défi est donc d’encourager les solutions technologiques les plus prometteuses pour le bien commun, dont l’efficacité est avérée et les risques sociétaux contrôlables.

*Les auteurs sont respectivement professeure à la Faculté de droit civil et titulaire de la Chaire sur l’IA responsable dans un contexte global de l’Université d’Ottawa ; conseiller scientifique à l’Observatoire international sur les impacts sociétaux de l’IA et du numérique (OBVIA) ; professeur de mathématiques à l’Université de Toulouse et membre chercheur de l’OBVIA ; chercheuse senior à la Chaire sur l’IA responsable dans un contexte global de l’Université d’Ottawa et membre chercheuse de l’OBVIA.


 
3 commentaires
  • Renée Joyal - Abonnée 25 avril 2020 11 h 41

    Texte éclairant

    Bravo et merci pour ce texte fort éclairant qui repose sur un examen approfondi de la question et qui montre bien la distance qu'il faut se donner face aux "innovations" technologiques.

  • Céline Delorme - Abonnée 25 avril 2020 12 h 14

    Au choix de la personne.

    Citation de l'article: "La Commission ontarienne des droits de la personne a ainsi alerté sur les risques d’exclusion des populations déjà particulièrement fragilisées par la pandémie."
    Ma conclusion: comme je fais partie de la population exclue et fragilisée, étant dans le groupe des "plus âgés", je préfèrerais beaucoup être localisée avec cellulaire et pouvoir sortir, ou marcher ou pédaler dans les sentiers en nature, plutôt que rester enfermée dans mon appartement. Ouvrons les centres de Plein Air et les Sépaq, quite à obliger les applis de cellulaires.
    Donnons le choix aux personnes: Ceux qui refusent le suivi par cellulaire, et prèfèrent rester enfermés, ils auront le doit de le faire aussi.

  • André Labelle - Abonné 26 avril 2020 19 h 10

    Comment choisir

    Comment choisir entre la vie des personnes et l'utilisation d'information.
    À l'évidence notre actuelle société globale n'est pas prête, n'a pas encore atteint un degré de mâturité suffisant pour prendre une décision éthique àa ce sujet.
    Traduit en terme clair et objectif, combien de pertes de vie allons-nous accepter pour satisfaire cette valeur toute théorique qu'est la liberté ? Pensons à la publicité, au marketing, à la propagande où les deux se mélangent. À quel point sommes-nous réellement libre ?

    «Je me croyais libre
    Sur un fil d'acier
    Quand tout équilibre
    Vient du balancier.»
    [Aragon chanté par Jean Ferrat]