Réglementer l’IA, et sortir du capitalisme algorithmique

« Les innovations récentes en IA générative s’inscrivent dans une dynamique économique liée à l’émergence d’un nouveau stade du capitalisme : le capitalisme algorithmique », notent les auteurs.
iStock « Les innovations récentes en IA générative s’inscrivent dans une dynamique économique liée à l’émergence d’un nouveau stade du capitalisme : le capitalisme algorithmique », notent les auteurs.

La montée fulgurante de l’intelligence artificielle (IA) générative, qui comprend des applications comme ChatGPT et Midjourney, a donné lieu à un battage médiatique et un important débat entourant le déploiement de ces technologies. Une lettre ouverte du Future of Life Institute évoquant les risques majeurs d’une course effrénée à l’IA, et réclamant un moratoire pour favoriser une régulation appropriée, a trouvé écho dans deux interventions publiées dans les journaux ces derniers jours. L’une, cosignée par Yoshua Bengio, prône une réglementation plus serrée de l’industrie, alors que l’autre met l’accent sur les bénéfices de l’IA, et appelle à une meilleure éducation du public afin d’adoucir les impacts de ces outils dans nos sociétés.

Ces lettres d’opinion incarnent les deux postures dominantes qui structurent le débat public sur l’IA. L’approche « régulationniste » appelle à davantage d’encadrement afin d’assurer un « développement responsable » des algorithmes et de réduire leurs effets néfastes sur le plan de la sécurité, de l’environnement, de la démocratie, des droits individuels, etc. L’approche « accélérationniste » et techno-optimiste accueille de son côté ces développements avec enthousiasme. Elle souscrit largement au discours de promotion des compagnies qui créent et déploient ces innovations, et stipule que nous devrions simplement nous adapter aux avancées rapides de l’IA.

Ces deux approches situent leur questionnement en aval des problèmes sociaux fondamentaux que soulèvent ces technologies. Il faut donc prendre un pas de recul, examiner les questions en amont, et mieux comprendre le contexte du déploiement de l’IA.

Une réglementation tronquée

Les politiques publiques se limitent généralement au même horizon étroit de la gestion des risques, l’autorégulation des entreprises et l’atténuation des biais algorithmiques. À titre d’exemple, la Loi sur l’intelligence artificielle et les données (LIAD), élaborée dans le cadre du projet de loi C-27 du gouvernement fédéral, vise à créer un système de réglementation flexible pour orienter l’innovation en matière d’IA au Canada. Ce cadre législatif cherche à mieux réguler les systèmes d’IA à incidence élevée, à réduire les cas de préjudices individuels et les résultats biaisés, à interdire certains usages frauduleux (comme les deepfakes), le tout à l’aide de six grands principes : supervision humaine et surveillance, transparence, justice et équité, sécurité, responsabilité, validité et robustesse.

Difficile d’être contre la vertu, mais comment ces principes seront-ils appliqués dans la pratique ? On souhaite mettre « l’accent sur l’éducation, l’établissement de lignes directrices et l’aide aux entreprises pour qu’elles s’y conforment par des moyens volontaires », et « trouver le juste équilibre entre la protection des Canadiens et de leurs intérêts et la promotion de l’industrie canadienne de l’IA ». Ainsi, la loi ne cherche pas à créer un cadre réglementaire préalable au déploiement des technologies algorithmiques, ni à redistribuer les profits générés par cette industrie, mais à « renforcer la confiance des Canadiens envers les technologies numériques qu’ils utilisent au quotidien ».

Cette approche réglementaire tronquée cherche à concilier les impératifs de croissance économique et d’acceptabilité sociale, en mettant sur un pied d’égalité la protection des citoyens et les intérêts d’une industrie florissante largement financée par les fonds publics, mais dont les milliards de profits sont surtout récupérés par des intérêts privés. Plusieurs experts soulignent d’ailleurs les nombreux angles morts du projet de loi, et réclament un cadre législatif beaucoup plus large.

En cherchant à mieux intégrer l’IA dans nos vies par un « jeu d’équilibriste », on risque de perdre de vue ce qui devrait à notre avis constituer l’enjeu premier du débat : avons-nous besoin de robots et d’algorithmes au départ et, si oui, dans quels secteurs et à quelles fins ? Pourquoi ces technologies sont-elles introduites dans la société ? Par qui ? Qui sont les groupes les plus affectés par ces machines, et les acteurs qui s’approprient la majorité des bénéfices ? Poser ces questions en amont dévoile rapidement l’aspect tabou des débats sur l’IA : le capitalisme. Nous croyons qu’on ne peut analyser adéquatement les impacts sociaux de l’IA en faisant abstraction du capitalisme, et vice-versa.

Au-delà du capitalisme algorithmique

Les innovations récentes en IA générative s’inscrivent dans une dynamique économique liée à l’émergence d’un nouveau stade du capitalisme : le capitalisme algorithmique. Il repose sur l’extraction massive de données personnelles, le développement accéléré d’algorithmes, l’hégémonie des plateformes, une refonte du monde du travail et l’introduction de systèmes décisionnels automatisés dans différentes sphères sociales.

Ces transformations s’accompagnent d’une « gouvernementalité algorithmique », c’est-à-dire que les algorithmes jouent un rôle grandissant dans la prédiction, la monétisation, la surveillance, le contrôle et la manipulation des comportements. On comprend mieux l’IA comme un vaste champ institutionnel et technologique inscrit au cœur des impératifs économiques de cette nouvelle forme de capitalisme, dont les coûts sociaux et environnementaux sont largement insoutenables.

L’encadrement réglementaire de l’IA en aval de son développement apparaît ainsi comme un coup d’épée dans l’eau. Il faut plutôt viser une réduction dans l’usage et la production de machines algorithmiques, afin de favoriser une « sobriété numérique » compatible avec la justice sociale, le respect des droits individuels et les limites de la planète.

Il n’est pas possible ici de détailler l’ensemble des réformes, des lois et des mécanismes à instaurer pour protéger la société contre les tendances à l’automatisation généralisée, mais une littérature grandissante évoque diverses pistes à explorer : création de nouveaux droits numériques (droit à la déconnexion, droit à l’oubli, droit à la gratuité de services essentiels), réseau public d’Internet haute vitesse, lois antitrust pour démanteler les oligopoles dans le secteur technologique, création de communs numériques (comme Wikipédia, les logiciels libres ou la plateforme En commun), etc.

Bref, un encadrement adéquat de l’IA ne peut se contenter d’accompagner les entreprises capitalistes en les rendant plus acceptables socialement. Le débat public doit s’élargir et remettre en question la propriété privée des moyens de production algorithmique, et s’interroger sur la place, le rôle et les limites des technologies algorithmiques dans nos vies et notre société.

Ce texte fait partie de notre section Opinion qui favorise une pluralité des voix et des idées en accueillant autant les analyses et commentaires de ses lecteurs que ceux de penseurs et experts d’ici et d’ailleurs. Envie d’y prendre part? Soumettez votre texte à l’adresse opinion@ledevoir.com. Juste envie d’en lire plus? Abonnez-vous à notre Courrier des idées.

À voir en vidéo