Comment faire face à l'arrivée des machines de guerre?

FEDOR, le robot développé par les Russes pour participer à l’exploration spatiale, est aussi un habile tireur.
Photo: YouTube FEDOR, le robot développé par les Russes pour participer à l’exploration spatiale, est aussi un habile tireur.

La robotisation et l’intelligence artificielle vont marquer le XXIe siècle. Ce deuxième volet de la série se demande comment assurer l’interdiction des robots tueurs autonomes et s’il le faut.

Le robot tueur est à nos portes. Terminator s’en vient. Reste à savoir si on le laissera entrer en humanité, où, quand et comment.

L’armée russe a développé une gamme de machines de guerre parvenues à différents degrés d’automatisation. Un inquiétant (ou fascinant) robot humanoïde russe baptisé FEDOR peut tirer du pistolet des deux mains en même temps. Il est présenté comme « un outil pour l’exploration spatiale ». Comment en douter ?

Dans un rapport de février, le département de la défense des États-Unis a reconnu son intérêt pour l’usage militaire de l’intelligence artificielle, notamment pour résoudre des problèmes d’espionnage ou de logistique tout en ajoutant être « loin de la question de la pleine autonomie [des armes] à laquelle semblent penser la plupart des gens ».

Il y a certainement de la propagande derrière ces réalisations concrètes et certains appels au calme. Il y a aussi une évidence : la course aux armements autonomes est bel et bien commencée. L’ONG pacifiste néerlandaise PAX a publié en mai un rapport spécial sur le sujet.

« La nation qui sera en avance sur l’intelligence artificielle contrôlera le monde », a clairement déclaré Bob Work, secrétaire adjoint à la Défense des États-Unis, en novembre 2017. Le président russe, Vladimir Poutine, a rajouté à peu près en même temps que « l’État qui disposerait d’une arme aux capacités surhumaines, littéralement, du point de vue de la force, de résistance et de précision, jouirait en théorie d’un avantage décisif ».

Un point de bascule

Un drone contrôlé par un humain tuant à des milliers de kilomètres, c’est déjà quelque chose. Un drone totalement libre de décider de tirer ou pas — et cette possibilité existe bel et bien — fait basculer dans une autre réalité éthique, légale et politique.

« On peut parler de robot tueur quand l’humain n’est pas dans la boucle de décision, explique François Laviolette, professeur titulaire du département d’informatique et de génie logiciel de l’université Laval. Ce n’est pas la même chose que l’inclure dans un système informatique pour appuyer la décision humaine. ».

Le philosophe Karl Jaspers parlait d’une « situation limite » avec l’apparition de la bombe atomique capable de détruire la vie et l’humanité. En voici une autre avec l’arme autonome. Les théoriciens de la guerre identifient d’ailleurs maintenant un troisième temps de la technique militaire, après l’ère de la poudre à canon et l’âge nucléaire.

La résistance s’organise. Le Comité international pour le contrôle des armes robots a lancé une campagne mondiale en avril 2013 pour « stopper les robots tueurs ». Son manifeste milite en faveur d’un usage pacifique de la robotique et d’une interdiction des armes totalement autonomes par un traité.

« Cinq protocoles existent déjà pour interdire certaines armes chimiques ou bactériologiques par exemple : on en veut un 6e sur les armes robotisées », a expliqué Noel Sharkey lors d’une conférence sur le thème des Killerroboter donnée en juin à l’université Bauhaus de Weimar à laquelle a assisté Le Devoir.

« Plus de 110 ONG, les plus grandes, sont de notre côté. Des Prix Nobel. Des grandes compagnies en intelligence artificielle aussi disent qu’on va faire des erreurs à coup sûr. On veut une seule loi disant simplement qu’on ne devrait pas permettre à des machines de traquer, sélectionner et abattre une cible sans un contrôle humain. »

Un robot criminel de guerre ?

Au moins quatre nations bloqueraient les négociations, la Russie, les É.-U., Israël et l’Australie. Un rapport de l’Organisation du traité de l’Atlantique Nord rendu public le 9 juillet (IA : impact sur les forces armées de l’OTAN) établit aussi que « certains experts doutent de la sincérité de la Chine » tout en soulignant qu’un consensus existe dans la communauté internationale pour « conserver un contrôle digne de ce nom » sur tous les systèmes autonomes.

« Les lois qui gouvernent la guerre ne seront pas respectées par les nouvelles armes, dit le juriste Thomas Chengeta de l’université Oxford, interviewé à Weimar. Le droit de la guerre implique la possibilité de poursuivre un criminel de guerre. Mais comment poursuivre une machine ? »

L’ancienne espionne de l’armée américaine Kara Frederick a été la seule du débat à ne pas jouer les Cassandres tout en restant relativement inquiète. Diplômée en « war studies » du King’s College de Londres, chercheuse associée au Center for a New American Security, think tank de Washington, elle a été analyste des services de renseignement pour le commandement de la marine américaine. Elle a aussi été déployée trois fois plutôt qu’une en Afghanistan pour appuyer les forces d’opérations spéciales.

« Il y a des raisons d’être inquiets et d’autres raisons d’être optimistes, a dit Mme Frederick. La technologie pour identifier et suivre des cibles existe. Elle pourra même bientôt prendre des décisions. Si on veut se protéger, il faut le faire maintenant. Je suis une ancienne praticienne. J’ai utilisé ces armes. Il y a une façon de faire, de telle sorte qu’une machine ne décide pas par elle-même et que des principes de décision existent. Mais oui, bien sûr les risques sont énormes. »

À lire demain : Le robot dans l’imaginaire.

Notre journaliste assistait au symposium de Weimar à l’invitation du Goethe-Institut.

Montréal, l’IA et les robots tueurs

La déclaration de Montréal pour un développement responsable de l’intelligence artificielle adoptée l’an dernier à l’initiative de l’université de Montréal énonce la règle suivant : « La décision de tuer doit toujours être prise par des êtres humains et la responsabilité de cette décision ne peut-être transférer à un système d’intelligence artificielle ».

Comme bien des savants mêlés au développement de l’intelligence artificielle et de la robotique, le professeur François Laviolette trace aussi la ligne à ne pas franchir dans cette question de l’autonomie décisionnelle. « Avec cette déclaration de Montréal, on veut garder un humain dans la boucle, résume-t-il. Je suis contre une intelligence artificielle qui pourrait prendre seule la décision d’éliminer un être vivant. »

Le major J.M. Arsenault a réaffirmé le même principe dans sa maîtrise sur La légalité et l’éthique des robots intelligents défendue au Collège des Forces canadiennes en 2017. « L’humain doit faire partie du processus décisionnel afin de pouvoir considérer les robots armés autonomes (RAA) comme légaux et éthiques dans le futur, dit sa conclusion. Lorsque l’emploi et la production de masse auront débuté, de nombreuses rencontres afin d’établir le cadre d’emploi seront nécessaires et devront impliquer les dirigeants des nations. Le besoin de discuter de ce sujet est, et continuera d’être, d’une importance primordiale pour les dirigeants de ce monde, autant au niveau politique que légal, éthique et philosophique. »

À voir:

Une terrifiante vidéo sur les armes autonomes 
 
1 commentaire
  • Paskall Léveske - Abonné 23 août 2019 06 h 43

    Dans la guerre, le robot doit demeurer un outil, et non un décideur

    D'un point de vue juridique, le prof Chengeta a raison. Voici notamment pourquoi.

    Avant d’attaquer une cible, il y a trois procédures à respecter.

    Première étape: évaluer s’il s’agit d’un "objectif militaire" au sens de l’article 52, du Protocol Additionnel I aux Conventions de Genève de 1977 (Protocole additionnel ou PA I).

    C'est une question à deux volets.

    1) Est-ce que le bien, par sa nature, son emplacement, sa destination ou son utilisation apporte une contribution effective à l’action militaire de l’adversaire?

    2) La destruction totale ou partielle de ce bien, sa capture ou sa neutralisation offre-t-elle en l’occurrence un avantage militaire précis du point de vue de l’attaquant?

    Deuxième étape. Lorsqu’il s’agit d’un objectif militaire, il faut évaluer le risque de "pertes en vies humaines dans la population civile, des blessures aux
    personnes civiles, des dommages aux biens de caractère civil, ou
    une combinaison de ces pertes et dommages" (ce que certains appellent les "dommages collatéraux") selon l’article 51 (5)b), du PA I.

    Autrement dit, y a-t-il des biens civils ou des civils situés suffisamment près de cet objectif militaire pour faire craindre à un risque de « dommages collatéraux ».

    Troisième et dernière étape. Lorsqu’il y a un tel risque, il faut faire le test de proportionnalité entre l’avantage et les risques de morts, de blessures aux civils ou de dommages aux biens à caractère civil. (art. 57 (2)a (iii) et b) du PA I).

    Selon ce test, on doit éviter de lancer, annuler ou interrompre une attaque dont on peut s’attendre qu’elle cause accidentellement des « dommages collatéraux » qui seraient excessifs par rapport à l’avantage militaire concret et direct attendu.

    Ce test, tout militaire, du général au simple soldat, doit l'évaluer en continu selon les circonstances, le contexte et l'information raisonnablement disponible au moment de planifier et de prendre la décision.

    Un robot peut-il en faire autant? Pas sûr.