La moralité des robots à l’étude

Ce texte fait partie d'un cahier spécial.

Photo: Franck V. Unsplash

Est-ce possible de créer des systèmes d’IA qui ont des compétences morales ? C’est la question que se pose Dominic Martin, professeur au Département d’organisation et de ressources humaines et membre d’HumanIA, qui travaille en ce moment sur la prise de décisions morales par les robots ou les systèmes d’IA. Comment peut-on créer des systèmes dont les décisions ou le comportement sont alignés avec la moralité humaine ? Selon le chercheur, cet enjeu est capital pour créer des machines qui vont interagir avec des êtres humains. À l’heure actuelle, on essaie de créer des systèmes reproduisant les régularités comportementales des êtres humains. On observe comment les êtres humains se comportent dans des environnements virtuels et on essaie de faire des généralisations. Mais cette approche soulève différents problèmes, notamment par le fait que l’humain ne se comporte pas toujours de manière conforme à ses propres principes moraux et éthiques.