Passer à la version normale du sitePasser à la version large du siteTaille d'écran
  • Facebook
  • Twitter
  • RSS
  • Connectez-vous

    L’Estonie se prépare à légiférer pour donner un statut unique aux robots

    20 novembre 2017 |Emmanuel Garessus - Le Temps | Science et technologie
    L’intelligence artificielle pose le problème des droits des machines. Si la voiture sans chauffeur est responsable d’un accident, ne serait-elle pas autorisée à se couvrir par une assurance?
    Photo: Justin Tallis Agence France-Presse L’intelligence artificielle pose le problème des droits des machines. Si la voiture sans chauffeur est responsable d’un accident, ne serait-elle pas autorisée à se couvrir par une assurance?

    L’Estonie veut accorder un statut légal à l’intelligence artificielle. À côté des personnes physiques et morales, voici les « robots agents ». Ces derniers ont-ils des droits sur leurs données ? Une identité ? Le droit de vote ? Une révolution copernicienne est en cours.

     

    Les promesses de l’intelligence artificielle (IA) dépassent parfois la science-fiction. Les algorithmes permettent en effet aux machines de s’adapter à la vie réelle et de répondre sans instruction préalable. Juridiquement, ce n’est pas simple. Qui est responsable lors d’un accident avec une voiture sans chauffeur ? Quand un drone tue dans un conflit armé ? « Toute la question est de savoir si le robot est un substitut de l’homme », expliquait récemment Ryan Calo, professeur de droit à l’Université de Washington, au Financial Times.

     

    Commençons par définir l’IA. L’intelligence est la capacité à accomplir des buts complexes. Elle ne se limite pas au quotient intellectuel (QI), mais doit être évaluée en fonction de la multitude des objectifs visés. L’IA est « étroite », car elle vise un seul objectif, au contraire de l’intelligence humaine, explique Max Tegmark, professeur de physique au MIT et auteur d’un ouvrage grand public sur l’IA : Life 3.0. Being Human in the Age of Artificial Intelligence.

     

    Problèmes de responsabilité

     

    Aujourd’hui, l’Estonie fait un pas de géant. Le gouvernement évalue la création d’un statut juridique pour l’IA et les robots, selon l’agence Bloomberg. Il introduirait un statut intermédiaire entre celui de la personne physique et de la personne morale. La mise en oeuvre serait une question de quelques années. De son côté, le Parlement européen est en train d’établir des standards réglementaires sur les robots. Les discussions éthiques, réglementaires et juridiques ne peuvent tarder. Les entreprises avancent à grandes enjambées dans leurs projets de voiture sans chauffeur, d’Internet des objets, de robots ou de drones.

     

    On cherche d’abord à empêcher le pire. L’interdiction des robots tueurs est proposée par de nombreux experts. Mais les apports bénéfiques des robots posent aussi des problèmes majeurs, par exemple en matière de responsabilité lors d’éventuels accidents.

     

    L’IA et l’automation devraient augmenter la productivité entre 0,8 et 1,4 % par an, selon McKinsey. Mais les prévisions sont difficiles. L’avenir répondra-t-il aux voeux des utopistes numériques qui attendent une vie 3.0 durant ce siècle ? Aux « technosceptiques » qui avancent que le superhomme ne sera jamais de ce monde ? Aux centristes qui plaident en faveur d’une IA bénéfique pour l’humanité à condition d’y mettre des garde-fous ?

     

    La vie 3.0 ? Mieux vaut commencer par définir les termes avant de se perdre en conjectures, écrit Max Tegmark. « La vie, c’est un processus qui peut garder sa complexité [en matière d’informations] et la reproduire. » Tegmark, également président de l’institut Future of Life, distingue entre la vie 1.0 qui est celle de l’étape biologique, la vie 2.0 pour l’étape culturelle, au sein de laquelle le processus crée son logiciel par apprentissage, et la vie 3.0, l’étape technologique, lorsqu’il crée son logiciel et son équipement informatique afin d’être le maître de son destin.

     

    Dans le droit, l’IA pourrait améliorer la production réglementaire et réduire les délais juridiques, écrit-il. Les « robojuges » concrétiseraient le rêve d’automatisation, d’objectivité et de rapidité, et éviteraient les biais comportementaux et les erreurs humaines. Tout le monde deviendrait effectivement égal devant la loi. Mais les risques sont nombreux. L’IA pourrait conduire à la production de « fake videos » qui vous rendrait responsable de crimes, explique l’auteur.

     

    L’IA pose aussi le problème des droits des machines. Si la voiture sans chauffeur est responsable d’un accident, ne serait-elle pas autorisée à se couvrir par une assurance ? Si ce droit est accordé, la machine pourrait devenir propriétaire et détenir de l’argent. Et s’il avérait que les machines étaient de meilleurs investisseurs que les humains, ce qui est souvent le cas en Bourse, elles pourraient progressivement contrôler le capital des entreprises. Faut-il leur donner le droit de vote ? Nous assistons à une explosion d’intelligence. Max Tegmark aborde l’un des débats les plus importants de notre temps.













    Envoyer
    Fermer
    Les plus populaires


    Abonnez-vous à notre infolettre. Recevez l'actualité du jour, vue par Le Devoir.