Passer à la version normale du sitePasser à la version large du siteTaille d'écran
  • Facebook
  • Twitter
  • RSS
  • Connectez-vous

    1000 intelligences contre une seule

    La communauté scientifique se mobilise contre l’intelligence artificielle des robots tueurs

    Avenir fragile. Plus de 1000 scientifiques, dont quelques grosses pointures comme Stephen Hawking, ont réclamé lundi dans une lettre ouverte l’interdiction pure et simple des robots tueurs, ces armes autonomes qui, par l’entremise d’une intelligence dite artificielle (IA), pourraient dans un futur dangereusement proche, selon eux, « combattre des cibles sans interventions humaines ». Une perspective qui, en cherchant à rendre plus sûrs les champs de bataille pour les militaires, annonce surtout un accroissement des pertes humaines tout autour, estiment-ils.

     

    « L’intelligence artificielle est arrivée à un point où le déploiement de tels systèmes sera — matériellement, si non légal — faisable d’ici quelques années, et non pas décennies, et les enjeux sont importants », écrivent les signataires de cette lettre publiée à l’occasion de l’International Joint Conferences on Artificial Intelligence (IJCAI), conférence internationale sur l’intelligence artificielle qui a ouvert ses portes samedi et pour toute la semaine à Buenos Aires en Argentine. « Les armes autonomes ont été décrites comme la troisième révolution dans les techniques de guerre, après la poudre à canon et les armes nucléaires ».

     

    Outre l’astrophysicien Stephen Hawking, qui a en avril dernier, dans le cadre d’une entrevue accordée à la BBC, fait part de ses craintes au sujet de l’IA, le cofondateur d’Apple, Steve Wozniak, le linguiste Noam Chomsky, le fondateur de Google DeepMind, entreprise versée dans l’IA, Demis Hassabis, mais aussi Elon Musk, créateur des voitures électriques Tesla, et Holger H. Hoos, ex-président de l’Association canadienne de l’intelligence artificielle, entre autres, sont au nombre des personnalités ayant apposé leur griffe au bas du document.

     

    La Kalachnikov de demain

     

    Selon eux, l’avènement des robots tueurs place aujourd’hui l’humanité face à une question clé : « Faut-il démarrer une course à l’armement doué d’IA ou l’empêcher de commencer ? » demandent-ils en évoquant leurs craintes. « Si une puissance militaire va de l’avant avec le développement d’armes dotées d’intelligence artificielle, une course à l’armement est alors inévitable, avec comme finalité à cette trajectoire technologique une évidence : les armes autonomes vont devenir les Kalachnikovs de demain. » Et d’ajouter : « Ce ne sera alors qu’une question de temps avant qu’elles n’apparaissent sur le marché noir, dans les mains de terroristes, de dictateurs qui souhaiteraient mieux contrôler leur population et de seigneurs de guerre cherchant à perpétrer un nettoyage ethnique. »

     

    Le document fait également référence à l’équipement peu coûteux et à la technologie plus facile d’accès que pour l’arme nucléaire dont l’arme autonome a besoin pour devenir réalité. « Elles deviendront omniprésentes », indique la missive, car produites massivement par des puissances militaires à bas coûts.

     

    La lettre a été publiée lundi par l’institut américain Future of Life, organisme indépendant qui se penche depuis quelques années sur les risques liés au développement d’une intelligence artificielle s’approchant de l’intelligence humaine et sur les conséquences délétères d’une telle réalité pour l’humanité. Elle fait également écho aux préoccupations formulées en avril dernier par l’ONU devant la possibilité de voir apparaître des robots tueurs. Depuis deux ans, le rapporteur spécial de l’organisation internationale sur cette question, le Sud-Africain Christof Heyns, réclame en effet un moratoire sur le développement de ces armes autonomes, et ce, dans l’attente d’un cadre juridique adapté.

     

    Pour les signataires de la lettre, dont plusieurs oeuvrent dans le domaine de l’IA, « une course à l’armement autonome ne peut pas être profitable à l’humanité », écrivent-ils sans toutefois condamner cette technologie qui, selon eux, peut apporter du bon pour la suite des choses, à condition toutefois que son image ne soit pas ternie par des perspectives guerrières qui pourraient induire « un rejet majeur du grand public contre l’intelligence artificielle et réduiraient tous ses bénéfices sociétaux futurs ». « Il existe plusieurs façons de créer des champs de bataille plus sécuritaires pour les humains, spécialement pour les civils, et ce, sans mettre au monde de nouveaux outils pour tuer les gens », concluent-ils.













    Envoyer
    Fermer
    Les plus populaires


    Abonnez-vous à notre infolettre. Recevez l'actualité du jour, vue par Le Devoir.