Une norme ISO en partie montréalaise pour l’IA

Olivier Blais, cofondateur de Moov AI, collaborera avec l’Organisation internationale de normalisation pour faciliter l’accès à des applications d’intelligence artificielle.
ValÉrian Mazataud Le Devoir Olivier Blais, cofondateur de Moov AI, collaborera avec l’Organisation internationale de normalisation pour faciliter l’accès à des applications d’intelligence artificielle.

Comment faciliter l’accès par les entreprises à des applications d’intelligence artificielle (IA) tout en évitant les dérapages ? En certifiant une norme de fiabilité et de respect d’un certain cadre moral et technologique. C’est justement l’ambition de l’Organisation internationale de normalisation (ISO), qui a mandaté un Montréalais pour l’aider dans son projet.

Le cofondateur de la jeune pousse montréalaise Moov AI, Olivier Blais, hérite de ce rôle. Le jeune entrepreneur, qui est par ailleurs membre du Conseil canadien des normes, se joint ainsi au comité ISO/IEC JTC 1/SC 42 créé en 2017 par l’ISO pour élaborer et faire appliquer des normes encadrant l’utilisation et les applications de l’intelligence artificielle.

La tâche exacte d’Olivier Blais sera de créer un modèle d’analyse qui permettra d’évaluer la qualité des applications d’intelligence artificielle. « Dans le monde des affaires, c’est encore le Far West même si on parle d’IA depuis longtemps », résume-t-il en entrevue au Devoir. À l’heure actuelle, 85 % des projets d’intelligence artificielle en entreprise finissent par être mis de côté faute de produire les bénéfices espérés, que ce soit un gain de productivité, une hausse des ventes ou autre.

Normaliser les applications

Entre agents automatisés de conversation en ligne et vision par ordinateur destinée à accélérer le tri sur une chaîne d’assemblage, l’IA prend différentes formes selon le secteur d’activité dans lequel on se trouve. La résistance de ces outils hautement informatisés à des failles de sécurité, à différentes menaces ou même à une utilisation erronée varie d’un cas à un autre. Du monde bancaire au secteur manufacturier, chaque industrie possède ses propres normes, ses propres façons de faire.

Bref, Olivier Blais va tenter de normaliser toutes ces applications d’IA et de rendre universelle la façon dont on détermine si elles vont remplir leurs promesses. « Ce sera vraiment un guide intersectoriel, applicable à toutes les industries », assure-t-il. Il pense que l’ISO pourra publier une norme assez aboutie pour les différentes formes d’IA qui existent quelque part à l’horizon 2023.

À une autre époque, de nombreuses entreprises arboraient fièrement leur conformité à l’une ou l’autre des normes de la série ISO 9000, qui garantissent un certain niveau de qualité dans la gestion de ces entreprises. L’objectif d’ISO est de créer des normes pour l’IA qui auront le même effet sur la perception qu’ont les entreprises ainsi que le public par rapport à cette technologie.

Après tout, on peut inclure dans les outils qui ont été plus récemment créés grâce à l’émergence de l’intelligence artificielle des applications comme la surveillance vidéo de masse, le pistage par ordinateur d’individus à travers une foule, et même la création de vidéos hypertruquées — qu’on appelle « deepfakes » en anglais — dans lesquelles il est possible de faire dire à peu près n’importe quoi par n’importe qui pour autant qu’on possède une photo de la personne ciblée.

L’ISO souhaite que ses normes marginalisent sinon l’existence de ces technologies qui bafouent souvent les droits de la personne les plus fondamentaux, du moins leur utilisation par les organisations privées et publiques. Quand les spécialistes parleront de la « qualité » d’un modèle d’intelligence artificielle, ils engloberont ainsi la nature des données utilisées par ce modèle et la façon dont elles ont été obtenues afin de garantir un certain respect de la confidentialité et de la vie privée du public.

Éviter une course à trois

Un autre avantage d’une norme internationale serait d’éviter une course à trois entre l’Europe, les États-Unis et la Chine où chacun tenterait de déterminer quelles formes d’intelligence artificielle sont légitimes et applicables et quelles autres sont à éviter ou à proscrire.

Des trois, l’Union européenne est probablement la plus sévère face à la technologie. Entre avril et août, le Parlement européen a recueilli les commentaires du public sur une loi qui classerait divers types d’IA selon leur degré de risque pour le public, quitte à rendre illégales celles qui sont jugées trop dangereuses. Il puise une partie de son inspiration de la Déclaration de Montréal pour un développement responsable de l’IA, réalisée à l’initiative du professeur de l’Université de Montréal Yoshua Bengio.

Aux États-Unis, les entreprises prétendent que l’IA est une technologie somme toute neutre et que l’encadrement devrait porter sur son utilisation. La Chine a une définition autrement plus large de ce qui est acceptable. Le gouvernement y recourt à la reconnaissance faciale dans ses systèmes de sécurité par caméra.

Le comité SC 42 de l’ISO devra composer avec ces vues divergentes. Selon Olivier Blais, ses normes sur l’IA seront « prêtes pour le futur qu’on ne connaît pas encore », y compris ce que décideront les gouvernements.

À voir en vidéo