Pour un développement éthique et responsable de l’IA en droit

Ce texte fait partie du cahier spécial Intelligence artificielle: Pour que la machine reste l'alliée de l'homme
Depuis quelques années, l’usage de l’intelligence artificielle (IA) dans le domaine juridique modifie tant la vie quotidienne des praticiens que les fondements du domaine. Il importe alors de se pencher sérieusement sur les enjeux éthiques émergents.
La disponibilité de grands corpus de documents juridiques (législation, jurisprudence, détails d’affaires pénales, etc.) a permis de créer des moteurs de recherche renforcés par des systèmes d’apprentissage automatique. Ces outils sont maintenant utilisés par les avocats pour trouver les informations pertinentes beaucoup plus efficacement que par le passé. En limitant le temps nécessaire à la fouille de la jurisprudence, ils ont une influence profonde sur la pratique quotidienne des professionnels du droit. Ils sont aussi sur la sellette, car ils automatisent une partie du travail et potentiellement de la prise de décision. Un premier défi consiste donc à réfléchir à la manière dont les humains se serviront des systèmes basés sur l’IA dans des contextes juridiques de manière socialement acceptable.
L’avènement de la justice prédictive a également un impact profond sur le système juridique. Ainsi, plusieurs États américains utilisent déjà un logiciel tel que l’outil Compas pour prédire le risque de récidive d’un détenu. Même si la décision finale concernant la libération anticipée est toujours prise par un humain, il s’agit d’un exemple flagrant d’une situation dans laquelle les prédictions obtenues par un algorithme ont un fort impact sur les individus. Cette situation soulève de nombreuses questions éthiques en ce qui concerne les discriminations possibles, la transparence et l’interprétabilité des décisions.
L’accès à des logiciels permettant d’anticiper l’issue d’une affaire et le montant de l’indemnisation probable a conduit au développement de l’optimisation juridique qui consiste à plaider une affaire dans les conditions les plus favorables. Un avocat peut par exemple décider de plaider sa cause dans une juridiction particulière, car le logiciel a prédit que ses chances de gagner la cause sont plus élevées à cet endroit en raison de possibles préjugés récurrents des juges dans cette juridiction. En matière d’équité, l’écart entre les personnes représentées par des juristes ayant accès ou non à un outil d’optimisation augmente, de même que le déséquilibre de pouvoir entre les équipes juridiques selon leur accès aux logiciels qui incluent des systèmes basés sur l’IA. Tous ces facteurs peuvent contribuer à la croissance des inégalités d’accès à la justice entre les citoyens. Pour autant, il est indispensable de décongestionner le système juridique et de renforcer l’objectivité des décisions judiciaires.
Le projet LegalIA
Une équipe de recherche dirigée par des professeurs de l’UQAM s’est attaquée à ce problème en créant le projet LegalIA. Ce projet intersectoriel est financé par les Fonds de recherche du Québec dans le cadre du programme AUDACE.
L’équipe étudie comment l’IA peut être intégrée d’une façon socialement acceptable aux outils technologiques utilisés dans le domaine du droit pour produire un ensemble de lignes directrices et de principes de bonne gouvernance. Elle met progressivement en oeuvre les résultats de cette étude en créant Leia, un prototype de logiciel basé sur l’IA, destiné aux citoyens, aux avocats et aux juges.
Leia interagira directement au moyen du langage naturel, comme un robot conversationnel, et analysera les demandes des citoyens pour leur fournir des explications dans un langage non technique et un accès direct aux organismes de soutien. Leia aidera l’avocat à trouver efficacement des documents pertinents pour une affaire, fournira une analyse sémantique de leur contenu et présentera les résultats potentiels en fonction de la manière dont le cas est construit. Enfin, le juge utilisera les capacités du système à analyser un cas particulier à la lumière d’affaires antérieures similaires, débarrassées des partis pris et de la discrimination.
Le système Leia est bâti en s’intéressant initialement aux situations de harcèlement psychologique sur le lieu de travail. L’équipe, qui rassemble des chercheuses et des chercheurs en informatique, en droit, en éthique et en linguistique, travaille notamment en partenariat avec la Société québécoise d’information juridique (SOQUIJ) et bénéficie de l’appui du Service aux collectivités de l’UQAM, dont les connaissances et l’expérience dans le domaine des situations de harcèlement psychologique réelles remontent à plusieurs décennies. Selon nous, la création de Leia et les réflexions qui mènent à son développement sont des étapes importantes vers l’amélioration de l’accès à la justice pour tous face aux problèmes de harcèlement psychologique.
* Les signataires :
Hugo Cyr (UQAM), Laurence Léa Fontaine (UQAM), Sébastien Gambs (UQAM), Leila Kosseim (U. Concordia), Dominic Martin (UQAM), Nicolas Merveille (UQAM), Marie-Jean Meurs (UQAM), Elizabeth Ann Smith (UQAM), Alain Tapp (U. Montréal)
Ce contenu a été produit par l’équipe des publications spéciales du Devoir, relevant du marketing. La rédaction du Devoir n’y a pas pris part.