Déclaration de Montréal: pour que l’humain garde le contrôle sur la machine

Hélène Roulot-Ganzmann Collaboration spéciale
Les dix principes et huit recommandations couvrent plusieurs thèmes clés pour penser la transition vers une société dans laquelle l’IA permet de promouvoir le bien commun.
Photo: iStock Les dix principes et huit recommandations couvrent plusieurs thèmes clés pour penser la transition vers une société dans laquelle l’IA permet de promouvoir le bien commun.

Ce texte fait partie du cahier spécial Intelligence artificielle: Pour que la machine reste l'alliée de l'homme

Il aura fallu dix-huit mois de travail intensif, des dizaines d’événements et d’ateliers organisés pour engager la discussion, l’implication de plus de cinq cents citoyens, experts et parties prenantes de tous les horizons professionnels… pour que, le 4 décembre dernier, la Déclaration de Montréal pour un développement responsable de l’intelligence artificielle (IA) puisse être enfin dévoilée. Une Déclaration qui vient poser des garde-fous dans un secteur en pleine expansion et dont la puissance et la capacité de nuisance sont phénoménales. L’objectif : faire en sorte que l’humain garde le contrôle sur la machine.

« Ce n’est pas parce que l’IA peut le faire qu’on doit le lui faire faire », affirme Marc-Antoine Dilhac, professeur à l’Université de Montréal, titulaire de la Chaire de recherche du Canada en éthique publique et théorie politique, et codirecteur scientifique de l’exercice ayant mené à la Déclaration. Selon lui, l’objectif de ce texte est d’abord d’élaborer un cadre éthique pour le développement et le déploiement de l’IA, mais aussi d’orienter la transition numérique afin que tous puissent bénéficier de cette révolution technologique. Ce texte cherche alors aussi à ouvrir un espace de dialogue national et international pour réussir collectivement un développement inclusif, équitable et écologiquement soutenable de l’IA.

Dix principes et huit recommandations à l’usage des gouvernements, des entreprises et des ordres professionnels ont ainsi été élaborés. Ils couvrent plusieurs thèmes clés pour penser la transition vers une société dans laquelle l’IA permet de promouvoir le bien commun. Ils reflètent la culture morale et politique de la société québécoise au sein de laquelle ils ont pris naissance, mais constituent également une base pour un dialogue interculturel et international, car ailleurs dans le monde, de telles déclarations sont également en train de voir le jour. Reste maintenant aux décideurs d’en débattre et ultimement de légiférer, afin d’assurer une appropriation sociale harmonieuse, juste et respectueuse de ces changements technologiques, sans pour autant mettre à mal les retombées économiques promises par l’intelligence artificielle.

Le Devoir s’est entretenu avec Marc-Antoine Dilhac à propos de cette Déclaration sans précédent.

Pourquoi avoir décidé d’impliquer les citoyens dans le processus de construction de la Déclaration ?

Il y a un bouillonnement autour de l’intelligence artificielle à Montréal et une inquiétude qui s’est répandue, tant au sein de la population que parmi les experts, sur ses potentiels mauvais usages. La communauté de recherche a une responsabilité, qui est à la fois d’étudier les enjeux sociaux de l’IA, d’y répondre et d’orienter le débat. Alors, pourquoi impliquer aussi les citoyens ? Nous pensons que pour décider des questions d’éthique publique qui concernent tout le monde, il faut faire participer le plus grand nombre. Nous avons donc organisé des forums permettant à ceux qui le souhaitent de rencontrer des experts et des entreprises afin de nouer un dialogue autour de ces questions qui les touchent directement, et qui parfois peuvent leur faire peur.

Que craint-on ?

Les inquiétudes sont de trois sortes. Il y a d’abord la peur du remplacement. Perdre son emploi bien sûr, mais aussi perdre des relations sociales, des interfaces humaines dans le contact avec les administrations, avec la justice, la police, etc. Il y a ensuite quelque chose de plus métaphysique, à savoir la perte de l’identité humaine. On ne sait plus très bien ce que c’est qu’être humain. Avec Copernic, Galilée, Darwin et Freud, on a appris qu’on n’était plus au centre de l’univers, que nous n’avions plus le privilège d’être au sommet de la création et que nous n’avions plus le contrôle absolu sur notre pensée. C’est ce qu’on appelle les trois blessures narcissiques de l’humanité. On découvre aujourd’hui qu’il y en a peut-être une quatrième, qui serait que l’intelligence n’est pas proprement humaine. La troisième crainte enfin, c’est celle de l’automatisation des injustices et des discriminations. Mal nourris, les systèmes d’IA peuvent en effet reproduire des préjugés. Raison pour laquelle nous croyons que l’humain devrait toujours garder un contrôle.

Comment la Déclaration de Montréal répond-elle à ces craintes ?

Elle a d’abord pour vertu de déterminer les enjeux sociaux et éthiques de l’IA. Cela nous donne une carte, une boussole. Elle rappelle à tous ceux qui veulent développer des applications liées à l’IA que celles-ci doivent améliorer le bien-être et l’autonomie des individus. Il y a dix principes auxquels idéalement, les algorithmes devraient répondre. Je dis idéalement parce que, parfois, certains principes vont être en tension. Le principe sur le bien-être et celui sur la protection de l’intimité peuvent clairement l’être. Prenons des victimes de la maladie d’Alzheimer. Si je veux développer une application qui va améliorer leur bien-être, mais que, pour cela, je dois récupérer des données dans l’intimité des personnes, les deux principes sont manifestement en tension. Est-ce qu’on ne va pas le faire pour autant ? La Déclaration ne donne pas de réponse. Elle n’est pas un carcan qu’il faut suivre à la lettre. Mais ceux qui veulent réfléchir convenablement aux enjeux de l’IA devraient toujours l’avoir en tête avant de développer quoi que ce soit. Elle oblige à se questionner, à faire un effort de réflexion.

L’IA, c’est aussi la promesse de gros gains économiques, tant pour les entreprises que pour les gouvernements, et donc au bout du compte, pour les populations. Comment imaginer dès lors que cette Déclaration, qui restreint les possibles, sera suivie d’effet ?

C’est une question qui est légitime, mais qui est vieille comme le monde dès que l’on parle d’éthique, pas seulement dans le cadre de l’IA. Parler d’éthique, c’est forcément parler de choses qui contraignent les gens et les organisations. Si on avait posé la même question au moment de la Déclaration des droits de l’homme, si on s’était demandé à ce moment-là si les dirigeants allaient accepter, elle n’aurait jamais vu le jour. Et puis, je crois que, contrairement à d’autres industries, ce secteur a tout intérêt à faire en sorte que l’IA soit acceptée, donc acceptable et donc éthique. Tout repose sur la confiance. Si les usagers se méfient et se détournent de ces outils, ça signifie moins de données. Or le principe même du bon fonctionnement des algorithmes, c’est de les nourrir avec des données les plus massives possible. Le moindre scandale serait ravageur.

Et du point de vue des gouvernements ?

Ils doivent à la fois faire en sorte de protéger les droits des citoyens tout en ne contraignant pas trop le milieu économique pour ne pas mettre un frein à l’innovation et demeurer compétitifs sur le plan international. Il y a donc un équilibre à trouver. Les gouvernements doivent maintenant s’emparer des principes de la Déclaration, mais aussi des recommandations qui l’accompagnent afin de légiférer, notamment sur le partage et l’utilisation des données. Nous comptons aussi beaucoup sur les ordres professionnels parce qu’ils ont un fort pouvoir normatif et parce que, selon le secteur d’activité, les principes ne s’appliquent pas forcément de la même façon. Prenons par exemple la médecine. On se rend compte que les citoyens sont très à l’aise avec le fait de partager leurs données avec le système de santé parce qu’ils comprennent les bienfaits qui pourraient en découler. Ce n’est pas la même chose lorsque l’objectif est de leur vendre un produit dont ils pourraient se passer.

C’est donc du cas par cas…

Les principes ne sont pas hiérarchisés. Le dernier n’est pas moins important que le premier. Il est possible, selon les circonstances, d’attribuer plus de poids à l’un plutôt qu’à un autre, ou de considérer qu’un principe est plus pertinent qu’un autre. Mais je crois que le principe de responsabilité est un impératif. L’humain demeure responsable des faits et gestes de la machine, et il doit toujours pouvoir reprendre la main. Si l’humain n’est pas responsable, personne ne l’est et c’est le règne de l’arbitraire. J’insiste sur le fait que le plus gros risque, c’est la bureaucratisation par l’IA. Ça va devenir problématique si on considère que l’on a un algorithme très puissant, que celui-ci détermine qu’une personne n’a pas le droit à telle prestation sociale et qu’il n’y a aucun recours. On n’a pas envie de replonger dans l’atmosphère impersonnelle et oppressante de Kafka, dirigée cette fois par des systèmes d’intelligence artificielle.

Les 10 principes de la Déclaration

1. PRINCIPE DE BIEN-ÊTRE

Le développement et l’utilisation des systèmes d’intelligence artificielle (SIA) doivent permettre d’accroître le bien-être de tous les êtres sensibles.

2. PRINCIPE DE RESPECT DE L’AUTONOMIE

Les SIA doivent être développés et utilisés dans le respect de l’autonomie des personnes et dans le but d’accroître le contrôle des individus sur leur vie et leur environnement.

3. PRINCIPE DE PROTECTION DE L’INTIMITÉ ET DE LA VIE PRIVÉE

La vie privée et l’intimité doivent être protégées de l’intrusion de SIA et de systèmes d’acquisition et d’archivage des données personnelles (SAAD).

4. PRINCIPE DE SOLIDARITÉ

Le développement de SIA doit être compatible avec le maintien de liens de solidarité entre les personnes et les générations. Ils ne doivent pas nuire à la conservation de relations humaines affectives et morales épanouissantes, et devraient être développés dans le but de favoriser ces relations et de réduire la vulnérabilité et l’isolement des personnes.

5. PRINCIPE DE PARTICIPATION DÉMOCRATIQUE

Les SIA doivent satisfaire les critères d’intelligibilité, de justifiabilité et d’accessibilité, et doivent pouvoir être soumis à un examen, à un débat et à un contrôle démocratiques.

6. PRINCIPE D’ÉQUITÉ

Le développement et l’utilisation des SIA doivent contribuer à la réalisation d’une société juste et équitable.

7. PRINCIPE D’INCLUSION ET DE DIVERSITÉ

Les SIA doivent être compatibles avec le maintien de la diversité sociale et culturelle et ne doivent pas restreindre l’éventail des choix de vie et des expériences personnelles. Les milieux de développement de l’IA, aussi bien dans la recherche que dans l’industrie, doivent être inclusifs et refléter la diversité des individus et des groupes de la société.

8. PRINCIPE DE PRUDENCE

Toutes les personnes impliquées dans le développement des SIA doivent faire preuve de prudence en anticipant autant que possible les conséquences néfastes de l’utilisation des SIA et en prenant des mesures appropriées pour les éviter.

9. PRINCIPE DE RESPONSABILITÉ

Le développement et l’utilisation des SIA ne doivent pas contribuer à une déresponsabilisation des êtres humains quand une décision doit être prise. Seuls des êtres humains peuvent être tenus responsables de décisions issues de recommandations faites par des SIA et des actions qui en découlent.

10. PRINCIPE DE DÉVELOPPEMENT SOUTENABLE

Le développement et l’utilisation de SIA doivent se réaliser de manière à assurer une soutenabilité écologique forte de la planète.

Ce contenu a été produit par l’équipe des publications spéciales du Devoir, relevant du marketing. La rédaction du Devoir n’y a pas pris part.



À voir en vidéo