Les «robots tueurs» sont inévitables

Un drone de l’armée américaine, qui pourrait être armé. Définir les «robots tueurs» est délicat. Ainsi, la France a décidé que les drones n’entraient pas dans la catégorie des robots, souligne l’auteur.
Photo: Eduardo Contreras Press Agence France-Presse Un drone de l’armée américaine, qui pourrait être armé. Définir les «robots tueurs» est délicat. Ainsi, la France a décidé que les drones n’entraient pas dans la catégorie des robots, souligne l’auteur.

Le lundi 9 avril s’est ouverte à Genève une énième réunion sur ce que certains appellent les « robots tueurs ». Énième consultation qui regroupe durant dix jours des experts sur les systèmes d’armes létales autonomes (SALA) de plus de 70 pays sous l’égide des Nations unies, pour aboutir très probablement à de nouvelles déclarations purement politiques, sans qu’aucune décision de fond soit prise.

L’apparition de nouvelles armes a toujours suscité des réactions relativement vives concernant leur légalité ou leur moralité. Les robots tueurs ne font pas exception. Cependant, il y a fort à parier que, à l’instar des drones, ces nouveaux systèmes de combat envahiront les champs de bataille, en dépit des mises en garde contre les risques qu’ils représentent.

Les enjeux induits par le développement de ces machines sont tels que nul ne peut croire qu’un cadre juridique contraignant sera défini.

Lors de ma participation à la consultation d’experts sur les robots létaux autonomes organisée à l’initiative des Nations unies en 2013, il a été rapidement évident que les discussions sur le sujet achopperaient systématiquement sur les définitions, en raison d’une différence d’interprétation irréductible entre ingénieurs, politiciens, juristes, philosophes, sociologues et historiens.

En l’occurrence, le premier point bloquant est celui de la définition de l’autonomie. Force est de constater que, cinq ans plus tard, participant à une autre consultation organisée par Affaires mondiales Canada et le ministère de la Défense nationale, le problème reste entier. Pour avoir travaillé sur le sujet au sein de l’armée française et pour avoir suivi de près les réflexions menées par l’OTAN et l’ONU, je sais d’expérience que ce terme ne fait pas et ne fera jamais l’objet d’une définition claire et unanime.

Autre concept indéfinissable : celui de robot. Souffrant en effet d’une absence de définition consensuelle, le terme bénéficie d’une acception suffisamment floue pour que chacun puisse y inclure ou en exclure ce qui lui convient. Ainsi, la France a décidé arbitrairement que les drones n’entraient pas dans la catégorie des robots. Derrière cette décision se terre simplement la volonté de désamorcer les craintes liées au fameux « syndrome Terminator », c’est-à-dire la peur que le développement des SALA n’aboutisse à la création de machines totalement autonomes capables de menacer l’humanité.

La consultation : un jeu de dupes

Certes, les consultations, quand bien même elles achoppent sur la question des définitions, ont le mérite d’exister. Mais, à ce rythme, l’objectif d’établir un cadre normatif contraignant ne sera jamais atteint.

Il faut bien se rendre compte qu’au-delà des définitions, le développement des SALA recouvre des enjeux colossaux. Que ce soit en matière économique ; financière, diplomatique, industrielle, médicale, technologique, militaire ou encore politique, les intérêts des États et de l’industrie sont bien trop importants pour que les aspects éthico-juridiques soient placés en tête de leurs préoccupations.

Comment imaginer que le Japon, les États-Unis, Israël, la France ou encore le Royaume-Uni, la Russie et la Chine, qui déploient déjà des systèmes semi-autonomes, acceptent de se contraindre par un texte normatif qui les empêcherait de développer un secteur aux débouchés plus que prometteurs dans de nombreux domaines ? Les programmes sont déjà fixés. Les discussions sont tout au plus un exercice de communication.

Mais tandis que les discussions s’éternisent, le développement des armes autonomes, et donc de l’intelligence artificielle (IA), se poursuit.

La question de l’IA et des robots dépasse largement le simple cadre du champ de bataille. L’IA est partout, tout comme les robots, et nous regardons souvent ces avancées technologiques avec une fascination enthousiaste qui occulte l’effroi qu’elles peuvent susciter.

Sans sombrer dans l’excès, il y a de sérieuses raisons de s’inquiéter pour notre avenir. En prenant le temps de faire une recherche sérieuse sur le sujet, on mesure très clairement l’avancement des travaux en la matière, travaux qui ne manquent pas de susciter des préoccupations légitimes. C’est sur la base de ces préoccupations que j’ai d’ailleurs décidé en 2015 de signer les deux lettres ouvertes sur les risques liés au développement de l’intelligence artificielle et des armes autonomes.

Qu’il s’agisse de voir à terme ces machines prendre le dessus sur l’humain, ou dans un avenir plus proche de voir les SALA massivement employés sans contrôle démocratique, ou utilisés par des régimes ayant la capacité de menacer la sécurité internationale, chaque risque invite à remettre en question les arguments consistant à présenter ces machines comme des avancées technologiques bénéfiques à l’humanité. Certes, les SALA présentent des avantages. Mais le spectre et l’importance des risques sont trop larges pour ne pas appliquer le principe de précaution et s’interroger préalablement sur leur intérêt.

Si l’absence de définitions consensuelles interdit toute avancée, il apparaît surtout que les intérêts en jeu sont tels qu’ils priment toute autre considération. Il devient dès lors impossible de s’accorder sur des mesures à prendre ou sur un texte qui permettrait d’encadrer l’emploi de ces systèmes le temps qu’un débat sérieux ait lieu. Mon inquiétude réside dans le fait que tout se passe en dehors du cadre démocratique et de toute volonté politique d’envisager honnêtement les risques liés au développement des SALA, et donc de mettre en place un cadre juridique contraignant pour prévenir les dérives potentielles. Ce n’est malheureusement pas une nouvelle réunion qui modifiera le cours des choses.

2 commentaires
  • Sylvain Auclair - Abonné 14 avril 2018 08 h 52

    Arme létales autonomes?

    On pourrait facilement y inclure les voitures autonomes. Suffirait d'un peu de reprogrammation et le tour serait joué!

  • Bernard Terreault - Abonné 14 avril 2018 11 h 16

    Un fou

    On sait déjà qu'un fou à la tête d'un des sept ou huit pays qui ont l'arme nucléaire pourrait déclencher un cataclysme mondial. De même, un erreur dans le sytème de détection de missiles d'un de ces pays pourrait lui faire croire faussement à une attaque nucléaire, à laquelle il répliquerait pour vrai ! Alors, les drones et l'intelligence artificielle, c'est comparartivement mineur.