L’IA comme un poulet sans tête
Le manifeste des leaders impliqués dans le développement de l’intelligence artificielle (IA) marque la fin des visions romantiques qui ont longtemps inspiré les politiques numériques des États. Faisant suite à l’invitation de chercheurs réunis par l’UNESCO à s’intéresser aux « angles morts de l’IA », cet appel vient alerter sur les risques d’une IA qui fonctionnerait comme un poulet sans tête allant dans toutes les directions sans égard aux torts qu’elle peut engendrer.
Les signataires du manifeste se demandent si nous devons développer des esprits non humains et risquer de perdre le contrôle de notre civilisation. Ils appellent à une pause publique et vérifiable dans le développement des systèmes d’IA, quitte à ce que les gouvernements instaurent un tel moratoire. Pour ces chercheurs et dirigeants d’entreprises, les décisions de déployer des dispositifs d’IA ne doivent pas être laissées seulement à des entrepreneurs non élus. Les systèmes d’IA puissants ne doivent être développés que si leurs effets sont positifs et que leurs risques sont gérables.
Nous voilà à des années-lumière de la mythique « Déclaration d’indépendance du cyberespace », ce manifeste présenté à Davos en 1996 par John Perry Barlow. Il y enjoignait aux États du monde entier de se tenir loin du cyberespace constitué par des échanges, des relations et par la pensée elle-même, déployée comme une vague qui s’élève dans le réseau de nos communications. Un monde à la fois partout et nulle part, mais qui n’est « pas là où vivent les corps » et dans lequel les dérives s’autocorrigeraient spontanément.
On constate maintenant que nos corps et nos esprits vivent à plein dans ce monde virtuel carburant de plus en plus à l’IA et aux données. Au quotidien, les dérives qu’on y subit ne s’autocorrigent pas. Les technologies numériques, décuplées par les extraordinaires possibilités de l’IA, peuvent servir le meilleur comme le pire. Les laisser se répandre sans imposer d’obligations à ceux qui les développent, c’est mettre à risque la sécurité de nos démocraties.
L’appel de ces sommités du monde scientifique et du monde des affaires a été critiqué. Plusieurs lui reprochent une absence de propositions concrètes pour répondre aux défis posés par les technologies d’IA. On a aussi observé que des entreprises comme Microsoft ont récemment liquidé leurs équipes de chercheurs travaillant sur les enjeux éthiques des technologies d’IA. Mais au-delà de ces contradictions, l’initiative de ces leaders du monde de l’IA rappelle que l’ajournement constant des mesures afin de baliser effectivement ce qu’on peut faire de ces technologies finit par menacer l’intégrité des processus démocratiques.
La vraie création de richesse
L’IA et les autres technologies numériques modifient nos conditions de travail et de vie. Dans toutes les sphères d’activité, il urge de mieux comprendre les usages et surtout les effets conjugués de l’IA et des autres technologies. Ces dispositifs puissants promettent de réels progrès. Mais ils peuvent exclure des pans entiers de nos concitoyens et décupler les capacités de ceux qui ont des desseins malveillants.
Contrairement à ce qu’affirment ceux qui signent l’appel au moratoire, ce n’est pas à la société de s’adapter aux technologies, mais plutôt aux technologies de fonctionner dans le respect des exigences de la société démocratique. Il faut pour cela des lois qui tiennent compte des caractéristiques de ces technologies. Par exemple, l’IA possède des capacités de modifier son fonctionnement à la lumière des situations rencontrées. Il serait futile de tenter d’en réglementer la conception et les usages en reconduisant simplement les règles appliquées aux objets infiniment moins complexes.
Le vrai progrès émanant de technologies comme l’IA n’est possible que si elles sont mises en service en respectant les droits des personnes. Il faut des lois efficaces afin de faire en sorte que les usages malveillants de ces outils soient détectés et éradiqués dans toute la mesure du possible avant que surviennent les dégâts.
Les capacités considérables des technologies d’IA à générer aussi bien des merveilles que de sinistres fraudes nécessitent des régulations qui imposent d’en recenser les risques avant leur déploiement. De même, il faut renforcer et accélérer les capacités d’identifier et neutraliser ceux qui utilisent ces outils pour arnaquer.
Au Canada, le projet de loi C-27 édictant la Loi sur l’intelligence artificielle et les données, à l’instar des mesures mises en avant par l’Union européenne, prévoit d’obliger les concepteurs et ceux qui déploient des systèmes d’IA à en évaluer a priori les risques et à rendre compte de façon transparente des précautions mises en place pour en prévenir les usages néfastes. Voilà l’exemple d’un cadre juridique qui devrait éviter que les plus vulnérables subventionnent les profits de ceux qui déploient des outils sans se soucier de leurs effets néfastes.
Les chimères qui ont marqué les premières décennies de l’ère cyberspatiale ne peuvent tenir lieu de feuille de route pour faire face aux risques des technologies connectées. L’appel lancé par les experts en IA doit inciter à accélérer la mise en place de lois robustes pour obliger les concepteurs et utilisateurs à évaluer et à gérer les risques de ces puissants outils… à moins de se résoudre à subir l’IA comme un poulet sans tête.