À la fois juge et partie, l’«éthique» de Mila

«On saisit très bien que les chercheurs de Mila se préoccupent du suivi de leurs contacts, mais il ne faudrait pas se méprendre sur l’identité des bénéficiaires de l’opération», écrit Yves Gingras.
Photo: Cindy Ord/Getty Images/AFP «On saisit très bien que les chercheurs de Mila se préoccupent du suivi de leurs contacts, mais il ne faudrait pas se méprendre sur l’identité des bénéficiaires de l’opération», écrit Yves Gingras.

Un groupe composé essentiellement d’informaticiens de Mila, chapeauté par un philosophe « éthicien » également membre de l’institut, nous assure (dans un texte du Devoir, 23 et 24 mai) que l’application de « suivi de contacts » dont Mila fait la promotion sur toutes les tribunes serait non seulement « intelligente », mais surtout « éthique », mot magique devenu le sésame incontournable à toute action en ces temps du « tout à l’éthique ».

Or, qui est vraiment soucieux d’éthique devrait d’abord se demander : depuis quand les personnes qui font la promotion d’un gadget qu’elles ont conçu peuvent-elles légitimement affirmer, la main sur le cœur, le caractère « éthique » de leur boîte noire et nous demander de les croire sur parole ? Cela s’appelle un conflit d’intérêts. Parlant de la COVID-19 : laisserait-on le Dr Didier Raoult se faire le promoteur de la chloroquine, définir lui-même les règles éthiques et la méthode de validation de ses propres essais cliniques ? Bien sûr que non ; tout essai clinique sérieux est d’ailleurs nécessairement supervisé par des experts indépendants de l’équipe qui conduit l’étude pour justement éviter ce genre de conflit évident.

Autre problème : avant même de parler d’éthique, il faudrait d’abord établir l’efficacité technique du gadget que l’on veut diffuser dans la société. Comme le notait la très sérieuse revue Nature dans un éditorial du 30 avril dernier, aucune application de détection ne devrait être utilisée sans avoir au préalable été testée dans des études pilotes publiées et évaluant leurs risques et leur efficacité. Quelle est la qualité de la détection ? Quel est le taux de faux positifs ? Ce sont là des caractéristiques à déterminer avant de penser à une utilisation généralisable. Le même éditorial rappelait d’ailleurs que l’application tant vantée de Singapour n’était utilisée que par 20 % de la population. Ce qui signifie, ajoute la revue, que les chances que deux personnes porteuses de l’application se croisent sont de 4 % ! Et ne parlons pas de la distribution des téléphones cellulaires selon l’âge, ni même de l’organisation prétendument « indépendante » — mais créée par Mila… censée superviser toutes les données requises pour nourrir la machine —, car ce serait là mettre la charrue devant les bœufs.

De tels projets, assurément fort coûteux, paraissent d’utilité douteuse pour contribuer à quoi que ce soit en matière de santé publique et, encore moins, comme l’affirment les auteurs sans aucune preuve, pour « aider les citoyens à être les acteurs de leur propre santé ». Les citoyens ont-ils besoin d’un gadget électronique pour « renforcer leur solidarité » ? Et pour appliquer les règles relativement simples préconisées par la Santé publique ? Il y a tout lieu d’en douter.

Il est d’ailleurs curieux, mais significatif, que le début du texte soit au conditionnel (leur technologie « irait au-delà des méthodes traditionnelles ») et glisse ensuite à l’indicatif présent, donnant ainsi l’impression que la boîte noire est au point, ne fait pas d’erreur, détecte tous les cas et donne toujours les bons « conseils » !

Cela n’est pas crédible. Mais, certes, on peut comprendre que des chercheurs qui ont su convaincre les gouvernements d’investir plus de cent millions de dollars sur des promesses d’une révolution générée par leurs algorithmes d’intelligence apparente (IA) cherchent maintenant à convaincre de leur utilité sociale pour s’assurer du renouvellement de leurs budgets annuels jamais suffisants. Comme l’affirmait il y a plus d’un an la p.-d.g. de Mila, Valérie Pisano : « Ce qu’on a eu dans les dernières années, ça a été des investissements de base, de départ. […] Ça a permis l’essor de Mila, […] mais ce n’est pas suffisant » pour demeurer dans la prétendue « compétition mondiale » (Le Devoir, 29 janvier 2019). Ces sommes « de départ », notons-le, dépassent pour ce seul domaine spécialisé de l’informatique le total des fonds québécois octroyés à l’ensemble des chercheurs dans toutes les autres sciences de la nature réunies ! En somme, on saisit très bien que les chercheurs de Mila se préoccupent du suivi de leurs contacts, mais il ne faudrait pas se méprendre sur l’identité des bénéficiaires de l’opération.

On ne doit donc pas être dupes d’une telle stratégie de mise en marché. Les questions préalables d’efficacité technique ne doivent pas être éludées en orientant le regard vers l’éthique, d’ailleurs traitée de manière péremptoire. Enfin, il y aurait quelque naïveté à prendre pour argent comptant la clairvoyance d’informaticiens qui nous assurent travailler pour le seul bien de l’humanité, mais qui ont trop souvent tendance à penser que le social est soluble dans la technique.

22 commentaires
  • Cyril Dionne - Abonné 26 mai 2020 07 h 19

    De toute facon, le Québec est trop petit pour faire compétition aux grands et puissants de ce nouveau monde

    Quoi, tout le monde est surpris? L’intelligence artificielle a un plus grand impact sociétal que l’énergie nucléaire. Et comme toute chose de cette envergure, les ramifications qui en découlent ont un impact positif ou négatif dans la vie des gens. Si on peut convaincre que l’énergie nucléaire a un impact social positif, on peut faire de même avec l’intelligence artificielle.

    Au contraire du nucléaire, l’intelligence artificielle s’infiltre partout dans nos vies et les gens de s’en rendent même pas compte. Celle-ci peut alléger le fardeau de la vie de tous les jours et la rendre plus facile, mais il y a toujours un prix à payer. On n’a qu’à penser à son utilité militaire, la perte d’emplois par millions, de la création de personnalité dans les médias sociaux qui sont impossible de différencier de vraies personnes, les biais algorithmiques causés par des mauvaises données et les inégalités socio-économiques qui vont en découler. Mais c’est le danger pour la vie privé des gens qui est celui qui retient surtout notre attention aujourd’hui avec notre bidule supposément éthique.

    Oui, dans ce cas présent, cet application devient juge, jury et bourreau. On voit déjà la tempête éthique se levée sur cette intrusion de l’état dans la vie privée des gens. Mais l’État n’est pas éthique dans son être; elle portait déjà des accusations frauduleuses bien avant l’avènement de l’AI parce que la justice semble être un concept qui lui a toujours échappé. En fait, c’est la protection du système et de ses courtisans qui compte, et non pas le bien des citoyens. Avec cette contraction technologique, ce sera aux accusés de prouver leur innocence et non pas au système de prouver les accusations. Les rôles sont inversés pour bien servir la machine quoi.

    « Ben » oui, toute la publicité générée comme aller à l’émission quétaine de TLMEP pour vendre sa boîte de savon, eh bien, c’est pour des subventions par millions. Ce sont les nouveaux « quêteux » de la 4e révolution industrielle.

    • Pierre-Alain Cotnoir - Abonné 26 mai 2020 17 h 45

      Respirer par le nez un bon coup ou tourner sa langue 7 fois dans sa bouche avant de déblatérer.

      Oui, l'informatique facilite en ce moment les rapports humains et pour le tertiaire révèle également que le télétravail pourrait adéquatement remplacé les balades quotidiennes de 50 à 100 km pour aller faire la même chose dans une tour à bureau qu'on pourrait faire tout aussi bien chez soi (et même souvent mieux parce que moins dérangé par les collègues à l'heure de la pause).

      Oui, GAFAM quand il vous offre FB, la recherche sur GOOGLE, Zoom et tutti quanti vous commercialise dans de nombreuses dimensions et les vend instantanément. Mais de là à penser que l'application qui vous conseille pour vos déplacements en transport collectif vous espionne pour le compte de la NSA, il y a une marge et même une barge.

      Les garanties données par MILA où des gardiens extérieurs dont la juge Otis veilleront au grain sont mieux que les SLA que l'on signe à l'aveugle pour obtenir son "app" dernier modèle.

  • Jean Lacoursière - Abonné 26 mai 2020 07 h 56

    On peut lire, sur le site web de Mila :

    « Valérie Pisano détient plus de 10 ans d’expérience en talent, leadership, diversité et dynamiques organisationnelles. »

    Quel sabir !

    https://mila.quebec/personne/valerie-pisano/

  • Yvon Montoya - Inscrit 26 mai 2020 09 h 03

    Excellent article qui dit bien ce qu’il faut dire. Il faut refuser en bloc ces systèmes. Puis certain parle de vie privée a respecter alors que tout le monde ( sauf quelques un(e)s les refusent) abusent des réseaux sociaux. Par exemple si je ne suis pas abonné au Devoir c’est parce que je suis dans l’obligation d'accepter Face Book ne serait-ce que pour avoir la possibilité de lever le petit pouce vers le haut ou le bas afin d’exprimer si un commentaire me plait ou non etc. Ces outils de la 4e revolution industrielle sont acceptés même par les plus « critiques » soit-disant...la « machine » dont parle notre ami C. Dionne au tempérament si acariâtre est même servie lorsque nous faisons des ćommentaires ( c’est pourquoi je me limite seulement au Devoir). Merci pour cet éclairage lucide.

    • Cyril Dionne - Abonné 26 mai 2020 10 h 42

      En passant, vous pouvez toujours faire un don mensuel au Devoir en cliquant sur le bouton en haut à la droite de l'écran "Je donne".

    • Nadia Alexan - Abonnée 26 mai 2020 11 h 36

      Effectivement. Il faut se méfier de toutes tentatives qui nous poussent à nous servir d'algorithmes d’intelligence apparente (IA) comme solution universelle à nos déboires. Les philosophes célèbres, tels que Chomsky, dans ce même journal d’aujourd'hui, et Yuval Noah Harrari l'auteur de l'essai «21 leçons pour le XXIe siècle» qui nous prévient que »l’intelligence artificielle est le plus grand danger qui nous guette." Il explique que: «l’émergence de l’IA va laisser une partie des humains sur le carreau et créer une classe d’inutiles. Son autre danger est qu’elle va permettre la concentration des pouvoirs entre les mains de dictateurs, d’une élite…»Pour Yuval Harari, l'intelligence artificielle avantage les dictatures. Il a peur que: « L'IA va concurrencer les humains au niveau cognitif pour les rendre inutiles».

    • Cyril Dionne - Abonné 26 mai 2020 16 h 37

      Oui Mme Alexan. Nous entamons la quatrième révolution industrielle des robots et de l'intelligence artificielle et nous ne sommes même pas encore à même de comprendre pleinement l'impact de la troisième révolution industrielle de l'automatisation et d'un monde connecté. Dans un monde futur de robots, de voitures sans conducteur, d'intelligence artificielle, quels seront les emplois de demain? Comment pourrons-nous expliquer à un enfant de six ans qu'il ne pourra peut-être pas suivre les traces de son père parce que les conducteurs ne seront plus nécessaires? L'impact de la technologie a des répercussions non seulement dans le monde industriel, mais aussi dans les activités humaines. Les gens qui vont travailler dans ce domaine auront un ou des doctorats en génie informatique ou d'autres domaines aussi pointus. En fait, la moitié des gens risque d'être sans travail par l’an 2050, en tout cas pour ceux qui procurent une dignité socioéconomique afin de pouvoir élever une famille.

      Mais comme un partisan de l’intelligence artificielle, je ne peux qu’être fasciné par ce domaine. En fait, nous pouvons avoir une compréhension basique avec seulement un cours universitaire de première ou de deuxième année en algèbre linéaire en ce qui concerne les vecteurs, les matrices, les nombres complexes et les probabilités dans un monde de logique floue, de réseaux neuronaux et de l’apprentissage profond. Mais, il y aura toujours une différence entre la compréhension et la création d’algorithmes qui mimiques l’intelligence humaine. L’utilisateur ne dépassera jamais le créateur.

      Ceci dit, des gens comme Noam Chomsky sont dépassés par cette science qui laisse tout le monde derrière pour ceux qui sont incapables de comprendre. Et aujourd’hui, on doit apprivoiser cette nouvelle technologie, sinon on va devenir redondant parce qu’elle ne fera aucun cadeau à personne. Le génie est sorti de la bouteille et personne ne pourra l’y remettre.

  • Sylvio Le Blanc - Abonné 26 mai 2020 09 h 09

    100 % d'accord

    Ils m'inquiètent, moi, ces gens de Mila.

  • Chantal Doré - Abonnée 26 mai 2020 09 h 37

    L'éthique comme caution

    Bien d'accord. L'éthique est galvaudée. Elle sert malencontreusement de caution et trop souvent d'éteignoir. Comme si le concept constituait l'argument final et non l'ouverture au débat. Un peu à l'image du concept d'équité d'ailleurs qui, une fois prononcé, sonne le fin mot de l'histoire. La technique de l'IA n'est pas neutre et ce n'est pas seulement la manière de l'utiliser qui pose problème.