Vous n’avez rien à cacher, vraiment?

Martin Lasalle Collaboration spéciale

Ce texte fait partie du cahier spécial Enjeux de société

La technologie n’est jamais neutre : les avancées en matière d’intelligence artificielle et de traitement des mégadonnées soulèvent de nombreuses questions. Pour Karim Benyekhlef, celle de la protection des renseignements personnels est cruciale.

«Le moissonnage de larges agrégats de données qu’effectuent les moteurs de recherche et autres outils informatiques ne doit pas être laissé au seul contrôle des agences publiques ou des entreprises privées qu’il sert, car détenir l’information leur procure un pouvoir potentiel énorme», soutient le professeur de la Faculté de droit de l’Université de Montréal.

M. Benyekhlef lance d’ailleurs un message à ceux qui tolèrent d’être surveillés en prétendant n’avoir rien à cacher. «Tout le monde a quelque chose à cacher, c’est dans la nature humaine, que cette chose soit anodine en apparence ou grave.» On ne soupçonne pas nécessairement à quelles fins l’information qui percole de notre empreinte numérique peut servir.

«Présentement, on nourrit la machine en se dévoilant de différentes façons, poursuit-il. Mais peut-on accepter qu’un jour il soit possible que votre admissibilité à l’assurance emploi ou à une assurance vie soit décidée par un ordinateur?» Auquel cas des renseignements fournis au hasard pourraient se retourner contre soi…

M. Benyekhlef rappelle au passage que la France a adopté, dès 1978, une loi «informatique et libertés» qui prévoit qu’aucune décision administrative privée ou de justice ne peut avoir pour fondement un traitement automatisé d’informations donnant une définition du profil ou de la personnalité de l’intéressé. «Cela signifie qu’une machine ne peut prendre seule une décision touchant aux droits d’un individu; aucune protection légale de cette envergure n’existe ici», précise celui qui est aussi directeur du Laboratoire de cyberjustice de l’Université de Montréal.

Former les chercheurs et la population

 

L’une des solutions repose, selon lui, sur la pédagogie. «Il faut que les créateurs et concepteurs d’algorithmes soient formés en éthique et qu’ils acquièrent également un minimum de connaissances juridiques relatives à la protection des renseignements personnels et de la vie privée.» Pour leur part, les agences de protection des renseignements personnels devraient «sortir de leur rôle strictement juridique pour faire, elles aussi, de l’éducation auprès des associations de scientifiques et des entreprises en intelligence artificielle».

«Et par-dessus tout, il faut des débats et des discussions, conclut M. Benyekhlef. Toute innovation n’a pas à être obligatoirement mise en application, surtout si elle facilite la surveillance et le contrôle des populations. Au risque sinon de vivre dans une démocrature.»

Ce contenu a été produit par l’équipe des publications spéciales du Devoir, relevant du marketing. La rédaction du Devoir n’y a pas pris part.

À voir en vidéo