Passer à la version normale du sitePasser à la version large du siteTaille d'écran
  • Facebook
  • Twitter
  • RSS
  • Connectez-vous
    Les mutations tranquilles CULTURES + SOCIÉTÉ + PARADOXES

    Tuer le robot tueur dans l’œuf

    18 avril 2016 14h49 |Fabien Deglise | Les mutations tranquilles
    Crazy Roberto, robot criminel instable de la série fantaisiste Futurama.
    Photo: Comedy Central Crazy Roberto, robot criminel instable de la série fantaisiste Futurama.
    Sur les champs de bataille, les armes automatiques capables de choisir une cible et de tirer dessus sans l’ultime validation d’un humain, c’est pour demain. Mais pour Human Rights Watch (HRW), c’est surtout une perspective inacceptable.

    Le groupe réclame du coup l’adoption d’un «traité international» pour interdire «totalement leur développement, leur production et leur utilisation». Rien de moins.

    Dans un rapport fraîchement dévoilé, l’organisme international souhaite que la recherche scientifique visant à mettre au point ces robots dits tueurs, robots dotés d’une intelligence artificielle, soit tuée dans l’œuf. Et ce, pour le bien de l’humanité.

    «Il est moralement inacceptable de déléguer la décision de vie ou de mort à une machine, indique l’organisme par la voix de Bonnie Docherty, tête chercheuse chez HRW et spécialiste des questions militaires. «Il serait difficile pour une arme entièrement autonome d’exercer un jugement prudentiel», et, dans ce contexte, tout début de commencement d’une opérationnalisation de ce projet mérite d’être arrêté sur le champ avant qu’il n’atteigne sa cible : le champ de bataille.

    Dans son rapport, HRW reconnaît que le robot-tueur n’est encore qu’un concept cantonné entre les murs de laboratoires militaires. Mais le développement rapide de la technologie, les ressources financières qui y sont consacrées et les enjeux stratégiques qui accompagnent ces robots pourraient très vite — et probablement trop vite — le rendre opérationnel, peut-on lire. Avec des conséquences forcément tragiques et juridiquement troubles, selon Mme Docherty.

    Le contrôle humain sur le choix d’une cible et la décision de tirer ou non dessus n’est pas négociable, écrit-elle et pourrait même, si les armées décidaient de s’en soustraire de poser un problème juridique important : «Dans la plupart des cas, personne ne pourra être tenu légalement responsable de leurs actions», peut-on lire. Sans un contrôle humain, impossible de « veiller à ce que quelqu'un rende des comptes en cas d’actes illégaux» ou d’erreur de ce robot, qui comme toutes les machines de son espèce n’a pas d’empathie, n’en déplaise aux producteurs de films d’Hollywood.

    Le rapport d’Human Rights Watch ajoute sa voix à celles de plusieurs groupes et grandes personnalités qui, depuis plusieurs mois, sonnent l’alarme face à l’émergence d’une telle technologie guerrière. En juillet dernier, plus de 1000 scientifiques —Stephen Hawking était du nombre — , se sont d’ailleurs mobilisés dans une lettre ouverte contre ces robots-tueurs qui, au lieu d’écrire l’avenir, se prépareraient surtout, selon eux, a le faire basculer.

    « Faut-il démarrer une course à l’armement doué d’intelligence artificielle ou l’empêcher de commencer ? » demandaient-ils alors tout en évoquant leurs craintes. « Si une puissance militaire va de l’avant avec le développement d’armes dotées d’intelligence artificielle, une course à l’armement est alors inévitable, avec comme finalité à cette trajectoire technologique une évidence : les armes autonomes vont devenir les Kalachnikovs de demain. […]Ce ne sera alors qu’une question de temps avant qu’elles n’apparaissent sur le marché noir, dans les mains de terroristes, de dictateurs qui souhaiteraient mieux contrôler leur population et de seigneurs de guerre cherchant à perpétrer un nettoyage ethnique. »












    Envoyer
    Fermer