Il faut réglementer l’intelligence artificielle en santé

La prévision vaguement «dystopique» selon laquelle les robots ou les systèmes intelligents remplaceraient sous peu les humains, y compris les professionnels de la santé, peut alimenter un certain fatalisme, estime l'auteur.
Photo: Getty Images La prévision vaguement «dystopique» selon laquelle les robots ou les systèmes intelligents remplaceraient sous peu les humains, y compris les professionnels de la santé, peut alimenter un certain fatalisme, estime l'auteur.

Le lancement, le 4 décembre prochain, de la Déclaration de Montréal sur l’intelligence artificielle (IA) responsable pourrait jeter les bases d’un encadrement juridique de ce phénomène, du moins on l’espère. D’ailleurs, tant chez nos voisins américains que dans l’Union européenne, diverses initiatives en ce sens ont été lancées.

Dans le secteur de la santé, il semble toutefois y avoir une certaine passivité en ce qui concerne l’encadrement des développements attendus en matière d’IA, alors que ceux-ci pourraient avoir des impacts déterminants sur la vie des citoyens. Bien sûr, le sujet est complexe et la prévision vaguement « dystopique » selon laquelle les robots ou les systèmes intelligents remplaceraient sous peu les humains, y compris les professionnels de la santé, peut alimenter un certain fatalisme.

Or, la complexité du sujet ne diminue en rien la nécessité de se préparer à faire face aux défis de l’IA. Par ailleurs, il faut noter que la perspective la plus plausible, à moyen terme, n’est pas tellement que l’humain serait remplacé dans la prestation de soins, mais plutôt que les applications de l’IA concerneraient l’assistance à la prise de décisions pour les professionnels, aux fins de la détection et de la prévention des maladies, de la chirurgie assistée, etc.

D’ailleurs, suivant ce qui est relevé par une variété d’experts, on peut déjà arriver à cerner certains enjeux qui devront requérir une attention sur le plan réglementaire, dont les suivants.

Comment encadrer le développement et l’utilisation des algorithmes de traitement, dans le contexte où ceux-ci peuvent, en raison de leur complexité et de leur opacité, devenir des « boîtes noires » ? On parle ici d’algorithmes alimentés par des données massives, qui conduisent à des pronostics ou à des diagnostics potentiellement valables dans bien des cas, mais que les professionnels n’arrivent pas à expliquer ou à comprendre, ce qui peut compromettre la possibilité d’exercer un jugement clinique sur une situation donnée.

Si, sur le plan clinique, un médecin décide de s’écarter du résultat produit par un algorithme réputé fiable et dont l’usage est reconnu, quel est l’impact sur ses obligations d’informer le patient et, éventuellement, sur sa responsabilité ?

Comment protéger la vie privée des citoyens dans le contexte où le recours aux données massives accroît le risque que des renseignements qui avaient préalablement été rendus anonymes soient « ré-identifiés » et, peut-être, utilisés à mauvais escient ?

Comment éviter une dépersonnalisation ou déshumanisation des soins par un recours accru, sinon exclusif, à des interfaces artificielles, notamment en ce qui concerne les populations les plus vulnérables ?

Sur le plan réglementaire, l’émergence de l’IA dans le domaine de la santé peut concerner une variété d’acteurs, comme Santé Canada en ce qui concerne le processus d’homologation des instruments médicaux, à l’instar de son homologue américain, la Food and Drug Administration (FDA), qui a déjà proposé des orientations à ce sujet. Bien sûr, les ministères provinciaux de la Santé et les organismes associés seront également appelés à encadrer les applications en milieu hospitalier et peut-être aussi à évaluer les avantages cliniques et économiques des technologies proposées, dans le contexte d’un éventuel financement public de celles-ci. Les ordres professionnels devront pour leur part encadrer le recours à l’IA par leurs membres dans la prestation de soins.

Ainsi, le chantier réglementaire qui s’impose en ce qui concerne l’IA devrait être assez costaud, non seulement en raison du nombre des acteurs en cause, mais aussi dans la mesure où il faudrait normalement procéder à des consultations assez larges, avec l’ensemble des populations concernées, étant donné l’importance de bien prendre en compte les attentes sociales en cette matière. Comme le révélait un article récent paru dans la revue Nature, ces attentes sont grandement influencées par divers facteurs culturels et socioéconomiques. Il n’y a donc pas de temps à perdre et, en ce sens, on pourrait souhaiter que le lancement prochain de la Déclaration de Montréal sur l’IA responsable constitue le point de départ d’une autre initiative, qui pourrait être celle d’une déclaration portant spécifiquement sur l’encadrement de l’IA dans le domaine de la santé.

3 commentaires
  • Marc Davignon - Abonné 23 novembre 2018 07 h 34

    Utopie.

    Il y a déjà bon nombre d'algorithmes qui sont utilisés actuellement. Combien de «machines» font «l'interprétation» d'informations selon des règles «prescrites» pour que nous (les humains) puissions en faire la lecture (par exemple, l'imagerie à résonnance magnétique).

    Ce qui nous fait «vibrer», c'est notre imagination qui nous propulse vers plusieurs futurs tout délirants.

    L'intelligence artificielle c'est vendeur. Ça suscite la convoitise, ça impressionne, enfin, c'est de la divagation. C'est à qui sera le premier à trouver quelque chose avec la nouvelle nouveauté(?!).

    Il n'y a pas plus artificielle que la réalité artificielle obtenue par des drogues de synthèse.

    Enfin, bien que ces outils (car il ne s'agit que cela) peuvent paraitres impressionnants (comme toute construction humaine qui défie l'imagination des gens ... ordinaires! Enfin, ceux qui ne travaille pas dans le domaine), cela reste, demeure une construction humain.

    Un jour, peut-être, arriverons-nous à quelque chose. Aujourd'hui? Pas encore. Demain? Toujours pas! Après demain? Non plus!

    Alors, cette responsabilité? Elle demeure pleinement et entièrement celle de l'humain qui en fait l'utilisation.

  • Jean-Henry Noël - Abonné 23 novembre 2018 08 h 48

    Un oubli

    C'est la Chine. La FDA et Santé Canada peuvent ergoter pour réglementer. La Chine ne s'embarasse pas de questionnements éthiques. C'est-à-dire d'hypocrisie !

  • Raymond Saint-Arnaud - Abonné 23 novembre 2018 17 h 14

    Dystopie, eutopie

    Je ne vois pas pourquoi l’intelligence artificielle serait en soi dystopique, c’est-à-dire menant vers une société) organisée de telle façon qu'elle empêche ses membres d'atteindre le bonheur.

    Pourquoi l’intelligence artificielle ne pourrait pas être plutôt eutopique, c’est-à-dire menant vers une société organisée de telle façon qu'elle amène ses membres à atteindre le bonheur,
    selon l’usage que l’on en fait?

    L’inconnu fait peur, mais il faut se préparer à l’avenir.