Une question de confiance en l'intelligence artificielle

Ce texte fait partie du cahier spécial Intelligence artificielle
Les débats parfois vigoureux qui ont entouré le développement des applications de recherche de contacts pour la COVID-19 ont montré à quel point l’utilisation de l’intelligence artificielle et des données massives en santé ne passe pas comme une lettre à la poste. L’acceptabilité sociale constitue un enjeu de l’essor de ces technologies.
Mais de quoi parle-t-on au juste lorsqu’il est question de données massives en santé ? « Cela rassemble à la fois les données produites par des professionnels de la santé, y compris les chercheurs, et celles que les citoyens génèrent au quotidien », résume Aude Motulsky, professeure adjointe au Département de gestion, évaluation et politiques de santé de l’École de santé publique de l’Université de Montréal. On peut penser à la géolocalisation, mais aussi au rythme cardiaque ou au nombre de pas captés par une montre intelligente, ou encore aux habitudes d’achat de nourriture et d’alcool, par exemple.
Dans sa stratégie sur la santé numérique, l’Organisation mondiale de la santé soutient que l’ensemble de ces données permettrait de mieux comprendre les déterminants de la santé, les causes ou les caractéristiques de certaines maladies, ou encore l’efficacité et l’innocuité de certains traitements. Elle ajoute que les outils numériques en santé devraient bénéficier aux citoyens de manière « éthique, sécuritaire, sûre, équitable et durable ».
Découvrir des corrélations
Mme Motulsky offre l’exemple de la COVID-19. « Au Québec, nous ne recensons pas l’origine ethnique des patients atteints de ce virus, mais, dans les pays qui récoltent ces données, comme les États-Unis et le Royaume-Uni, l’origine ethnique est rapidement apparue comme un facteur de risque significatif », explique-t-elle.
Selon les Centers for Disease Control américains, les Afro-Américains et les Latino-Américains courent 4,7 fois plus de risques que les Caucasiens d’être hospitalisés à cause de la COVID-19. Les raisons tiendraient notamment à la prévalence de problèmes de santé, comme le diabète de type 2, dans ces populations, ainsi qu’à des conditions de vie et de logement plus difficiles. Les données massives permettraient de mieux comprendre ce genre de corrélations.
« Le potentiel est fort intéressant, mais il y a un revers à la médaille, reconnaît Mme Motulsky. Cesdonnées massives présentent des risques, comme des usages malveillants, de la manipulation ou de la stigmatisation. »
Lorsqu’il est question de données personnelles, la législation au Québec met beaucoup l’accent sur le principe de nécessité. Une entreprise ou une organisation ne doit collecter que les renseignements nécessaires à l’obtention d’un bien ou d’un service.
L’acceptabilité sociale n’est pas statique, elle peut évoluer, notamment grâce à un dialogue ouvert
« Mais ce principe ne colle pas bien au fonctionnement de la recherche en intelligence artificielle, car, souvent, les chercheurs ne savent pas à l’avance quelles données seront utiles, ce que l’on découvrira ni à quelle fin cette trouvaille pourra servir », souligne Pierre-Luc Déziel, professeur de droit des technologies de l’information à la Faculté de droit de l’Université Laval.
Nouer un dialogue
Selon lui, l’acceptabilité sociale dépend en grande partie du niveau de confiance que les citoyens placent dans leurs gouvernements, dans les entreprises et dans les établissements de recherche qui se servent de ces données et en encadrent l’usage. « Un lien de confiance se construit en faisant preuve de transparence et en établissant un dialogue avec la population, estime M. Déziel. On doit expliquer clairement les bénéfices et les risques de ces approches afin d’offrir un vrai choix aux gens. »
Rien ne sert de dorer la pilule, croit-il. L’usage des données massives en santé présente des risques. Il importe de bien les analyser et d’indiquer aux citoyens à quoi serviront les données, comment elles seront récoltées, anonymisées, conservées et protégées, qui y aura accès, quelles interventions sont prévues en cas de problèmes, etc.
M. Déziel croit aussi que les gouvernements et les différents intervenants du secteur de la santé et de l’intelligence artificielle devront démontrer un certain leadership lorsque des blocages apparaîtront. « Il ne s’agit pas d’abandonner un projet automatiquement chaque fois qu’il se heurte à un manque d’acceptabilité sociale, précise le chercheur. L’acceptabilité sociale n’est pas statique, elle peut évoluer, notamment grâce à un dialogue ouvert. »
De son côté, Mme Motulsky juge que ce type de dialogue sera encore plus fructueux si l’on augmente le niveau d’éducation des citoyens sur l’enjeu général de la collecte et de l’utilisation de leurs données personnelles. « Les gens partagent déjà un tas d’informations personnelles en utilisant leurs téléphones intelligents ou leur ordinateur, sans toujours savoir qui collecte quelles données ni pourquoi, donc ce n’est pas un enjeu qui se limite au secteur de la santé », fait-elle valoir.
Ce contenu a été produit par l’équipe des publications spéciales du Devoir, relevant du marketing. La rédaction du Devoir n’y a pas pris part.