L’intelligence artificielle et nous

La semaine dernière, des milliers de personnes ont signé une lettre pour demander la mise sur pause pour six mois du développement de l’intelligence artificielle (IA). Parmi ces signataires, il y avait Yoshua Bengio, fondateur et directeur scientifique de l’institut québécois d’intelligence artificielle Mila, l’un des pionniers du développement de l’apprentissage profond. ChatGPT, par exemple, est un outil d’IA qui utilise cette technique.

Depuis, partout des voix s’élèvent pour demander la même chose.

L’intelligence artificielle apprend en fonction des données qu’on lui transmet et selon la manière dont on aura construit l’algorithme. Ce qui veut dire qu’un outil d’IA peut aussi bien devenir très utile et bienveillant que se transformer en un monstre qui apprend à partir de mensonges, d’informations négatives ou de violences. C’est là que le développement trop rapide et non encadré peut être un danger pour nos sociétés, l’humanité et tous les êtres vivants.

Je vous parlais la semaine dernière d’une enquête sur la perception qu’ont les citoyens de l’usage des données par les villes et les États. Dans cette étude, on apprenait aussi que seulement 56 % des Québécois avaient un sentiment positif envers l’IA. Plus encore, 78 % d’entre eux pensent que l’humain deviendra dépendant de l’intelligence artificielle et, dans une proportion de 71 %, qu’elle échappera à son contrôle.

Bien que cet outil numérique prenne de plus en plus de place et qu’il puisse s’avérer très utile, partout, il suscite la méfiance. D’où cette demande de pause. Quand même le très « sympathique » Elon Musk participe à cette volonté de mettre l’IA sur pause, c’est dire qu’il y a vraiment un problème. J’oserais même dire qu’il est peut-être déjà trop tard.

Concrètement, que pouvons-nous faire devant cette accélération incontrôlée d’un outil qui peut, à terme, prendre le contrôle de plusieurs aspects de notre vie ? On exige que les gouvernements et les autorités compétentes interviennent au plus vite. Heureusement, plusieurs d’entre eux sont aussi alertés par ce développement rapide et semblent vouloir agir. Reste à voir quelles seront les suites. Le problème qui émerge, c’est que toutes ces réactions sont complètement désorganisées et sans réelle coordination.

Pour être en mesure d’avoir un certain contrôle sur le développement des outils d’intelligence artificielle, il faut agir prioritairement sur deux éléments fondamentaux : les données et les algorithmes.

Pour être efficace, un outil qui utilise l’apprentissage profond a besoin de beaucoup de données. Ce qui nous ramène à la qualité de ces données, qui exercera une influence directe sur les résultats de l’usage de l’IA. Lorsqu’on parle de qualité, cela inclut des critères comme l’éthique et la responsabilité sociale et environnementale.

On doit aussi s’attarder à la programmation des algorithmes. Les biais, les préjugés ou les intentions humaines derrière ce travail de programmation doivent être attentivement encadrés. Même si on a des tonnes de données de qualité, la suite dépend de ce qu’on va en faire. Sans régulation du travail de programmation, il est inutile d’envisager quelque contrôle que ce soit. Ce qui nous ramène aux principes éthiques et responsables.

Qui devrait déterminer les principes qui sous-tendent l’encadrement de l’IA ? Les gouvernements et les villes manquent de ressources en la matière. Pire, le niveau de littératie de ceux qui doivent écrire ces chartes et ces lois est bien souvent insuffisant.

On doit le rappeler : dans le domaine du numérique, les gouvernements ne jouent pas à armes égales avec les entreprises privées. Il faut impérativement se tourner vers les chercheurs, les universitaires et les scientifiques qui ont déjà réfléchi sur le sujet.

D’ailleurs, des exemples existent déjà. Prenons la Déclaration de Montréal sur l’IA responsable, lancée justement par Yoshua Bengio. Ce document est un guide incontournable, qui peut très bien accompagner les législateurs. Montréal s’en est d’ailleurs inspirée pour écrire sa Charte des données numériques, tout comme le travail fait par la Ville de Nantes en France. Il faut le souligner : l’Europe a un pas d’avance sur l’Amérique du Nord dans l’encadrement de l’usage des données. C’est pourquoi les États et les villes doivent mieux se coordonner pour que les actions soient efficaces.

Cela sera-t-il suffisant pour endiguer les dérives déjà bien entamées ? Bien sûr que non, mais au moins ce seraient des gestes qui pourraient permettre d’induire un certain contrôle et de réduire les risques de perte de contrôle.

Je ne suis pas naïf ; je sais très bien que certains États ne voudront jamais aller dans cette direction et que cela aura pour effet de réduire, voire d’anéantir nos efforts. En revanche, on ne peut pas non plus adopter une posture d’abdication en se disant que tout est perdu d’avance.

Je suis en faveur de l’usage accru des données et de l’IA pour améliorer la performance des gouvernements. C’est même une avenue très porteuse d’espoir, ne serait-ce qu’en matière de transition écologique et de résilience. Toutefois, sans interventions fortes et rapides des gouvernements pour encadrer les pratiques, ce sera peine perdue. Les législateurs doivent faire ce qu’ils ont perdu l’habitude de faire dans le domaine de l’économie : réguler les pratiques.

Ce texte fait partie de notre section Opinion qui favorise une pluralité des voix et des idées. Il s’agit d’une chronique et, à ce titre, elle reflète les valeurs et la position de son auteur et pas nécessairement celles du Devoir.

À voir en vidéo