Éthique de l’IA: les citoyens se prononcent

Etienne Plamondon Emond Collaboration spéciale

Ce texte fait partie d'un cahier spécial.


Des dispositions légales, la mise en place de formations pour tous et la nomination d’acteurs clés et indépendants dans la gestion de l’intelligence artificielle, comme des ombudsmans ou des organismes de réceptions de plaintes, sont les trois pistes de solutions qui ont été le plus souvent suggérées lors des consultations citoyennes entourant la Déclaration de Montréal sur le développement responsable de l’intelligence artificielle. Il s’agit de l’un des constats formulés en juin dernier lors du dévoilement des premiers résultats des délibérations citoyennes, qui ont été tenues à la suite du Forum IA responsable de novembre 2017. Plus de 500 personnes ont participé à ces événements, notamment à travers des cafés citoyens organisés dans les bibliothèques. Parmi les sept principes énoncés dans la Déclaration de Montréal, soit la démocratie, la justice, la responsabilité, le bien-être, l’autonomie, la vie privée et la connaissance, c’est la responsabilité et l’autonomie qui y ont été le plus souvent mentionnées ou désignées comme prioritaires. Le bilan souligne que l’évocation par les participants des enjeux en matière d’environnement, de diversité, d’équité, de prudence et de transparence pourrait mener à l’ajout ou à la précision de principes dans la version finale de la Déclaration. La démarche de consultation citoyenne se poursuit cet automne. Les prochains résultats devraient être annoncés lors de la conférence Neural Information Processing Systems (NIPS), prévue à Montréal en décembre prochain.