La bombe «i»

Cette fois, ce n’est pas Hollywood qui s’amuse à imaginer des catastrophes liées au développement des intelligences artificielles. Ce sont plutôt, dans une lettre ouverte publiée la semaine dernière, des scientifiques et des entrepreneurs technologiques de haut niveau, de grande renommée, qui émettent des mises en garde et suggèrent un programme de recherche détaillé afin d’éviter l’éclatement de ce qu’on pourrait qualifier de bombe « i » — pour intelligence. Remarquable effort de lucidité qui devrait déclencher un débat dans nos démocraties, des projets de recherche… et de réglementation.

« Nous devons nous assurer que nos systèmes d’intelligence artificielle fassent ce que nous voulons qu’ils fassent. » La phrase se trouve au coeur d’une lettre ouverte étonnante publiée la semaine dernière sur le site The Future of Life Institute, « Research Priorities for Robust and Beneficial Artificial Intelligence ». La phrase ci-dessus est moins anodine qu’il n’y paraît. Car l’idée sous-jacente ici est que ces mêmes systèmes, de plus en plus autonomes, pourraient un jour désobéir à leurs programmateurs ! L’imaginaire de la science-fiction a depuis longtemps suggéré des scénarios dystopiques de dérapage. Il y a là presque un genre. Dans la tradition de Frankenstein, la création se retourne contre le créateur : il y eut entre autres l’ordinateur Hal 9000 dans 2001, l’Odyssée de l’espace, lequel résiste aux commandes que les humains lui donnent. Dans la série Terminator, le réseau Skynet prend le contrôle de l’univers. Dans Transcendance aussi, l’informatique devient une sorte de superpuissance hostile aux humains. Dans Her, un homme s’éprend d’un ordinateur qui simule le sentiment amoureux. Artificial intelligence, de Spielberg, explore les malaises qui pourraient découler de la cohabitation de robots et d’humains. Etc.

On pourrait penser que les signataires de la lettre sont des technophobes hostiles à tout développement. Pourtant, on y retrouve, entre autres, le célèbre physicien Stephen Hawking, l’entrepreneur Elon Musk (Paypal, Tesla, SpaceX), le chercheur Eric Horvitz (Microsoft) et le philosophe Nick Bostrom (Oxford). Parmi les autres à l’avoir contresignée, il y a nombre d’ingénieurs des fameuses « GAFA », entreprises dominantes de notre cyberépoque : Google, Apple, Facebook, Amazon, etc. Le Future of Life Institute a lui-même été créé par Jaan Tallinn, cofondateur d’un autre de ces géants : Skype. Des Québécois ont ajouté leur nom : notamment Denis Poussart, professeur émérite de l’Université Laval, et Michel Simard, du Conseil national de recherches Canada.

Qu’entend-on par intelligence artificielle ? Certaines formes primitives sont déjà intégrées à notre vie. Aux échecs, nous n’arrivons plus à battre l’ordinateur. Nous avons pris l’habitude de répondre à des machines à reconnaissance vocale ; d’écouter nos téléphones ou notre GPS nous donner des indications. Nous nous informons à partir de traductions (certes bien imparfaites) proposées par Google. Nous donnons des commandes à notre iPhone grâce au logiciel Siri, qui nous répond. La firme Stats Monkey propose les services de journalistes robots aptes à rédiger des dépêches sportives ou financières. On nous promet pour bientôt l’avènement de voitures qui se conduisent seules. Etc. Les signataires de la lettre estiment que l’intelligence artificielle pourrait beaucoup apporter à la société. Notamment « abolir la pauvreté dans le monde et le chômage », ce qui « n’est pas peu dire », soulignent-ils, mais c’est sans doute une utopie.

Si elle est mal utilisée cependant, le pire est à craindre. Elle serait « potentiellement plus dangereuse que l’arme nucléaire », selon la comparaison suggérée par Musk. Ce dernier a d’ailleurs décidé de consacrer 10 millions de dollars aux recherches « responsables » dans le domaine de l’intelligence artificielle. (Les formulaires seront disponibles ce lundi.)

Musk renvoyait récemment à un passage du dernier essai de Nick Bostrom, Superintelligence : Paths, Dangers, Strategies (Oxford, 2014). Philosophe technophile, ancien militant transhumaniste, Bostrom, en conclusion de son livre, écrit que face à la perspective d’une « explosion de l’intelligence », « nous, les humains, sommes pareils à de petits enfants jouant avec une bombe ».

Certains ont répliqué à la lettre de Hawking et Musk. Le célèbre Ray Kurzweil, ancien du MIT qui travaille avec Google depuis 2012, en a dénoncé les inquiétudes dystopiques. Se disant « optimiste », ce dernier estime qu’en 2029, un ordinateur de 1000 $ sera aussi « puissant » qu’un cerveau humain ; cela nous laisserait amplement de temps pour développer des lignes de conduite éthiques face à l’émergence d’une intelligence artificielle forte. Vraiment ?

25 commentaires
  • Denis Paquette - Abonné 19 janvier 2015 05 h 14

    la culture1, on a pas fini d'en parler

    La bombe i c'est comme tous les changements majeurs, quand les chemins de fer sont apparus on disait que devant ces engins sortis de l'enfer tous les animaux allaient mettre bas , devant l'automobile on a dit que ce sera la tuerie generale et maintenant devant la culture i, que dit -on que l'intelligence va etre atrophier a jamais , comme si ce n'était pas deja fait

  • Guy Lafond - Inscrit 19 janvier 2015 05 h 54

    Désamorcer


    Ce sont en fait deux dangers qui nous gettent: les rejets excessifs des énergies fossiles dans l'atmosphère d'une part, et l'"explosion de l'intelligence" d'autre part.

    Avant de désamorcer l'intelligence artificielle, ceci afin de mieux la comprendre et mieux la maîtriser, ne devrions-nous pas pour un court intervalle mettre cette intelligence artificielle au service du climat et des grands glaciers?



    Et se donner plus de temps

    • Cyril Dionne - Abonné 19 janvier 2015 17 h 25

      Il y a plusieurs scénarios de fin de monde, et celui de l'Intelligence Artificielle (IA) n'est que l'un d'eux M. Lafond. En plus des changements climatiques et la fin de la biosphère, il y a aussi celui de la guerre nucléaire, d'un astéroïde gigantesque frappant le Terre en plus de la surpopulation planétaire. À vous de choisir le scénario le plus plausible.

      En ce qui concerne l'IA, nous sommes bien plus avancés que cette chronique peut suggérer. Avec les systèmes d’algorithmes génétiques artificiels combinés avec la logique floue, nous sommes bien près d'une entité artificielle à part entière. Peut-être que c'est déjà le cas dans un laboratoire militaire ou clandestin.

      Aujourd'hui, la cybernétique est une science qui est basée sur des ordinateurs qui agissent de façon ordonnée et logique sans être explicitement programmés. Et ceci est une réalité présentement. Dans la dernière décennie, la cybernétique nous a donné les voitures automatiques, la reconnaissance vocale, la recherche web efficace, et nous a permis de grandement amélioré la compréhension du génome humain. Nous ne sommes plus dans cette phase maintenant. Ce n'est pas la puissance des puces qui est en cause, mais bien les algorithmes qui sont créés pour activer les milliards, pour ne pas dire les trillions de transistors afin de concevoir des réseaux de neurones artificiels complexes, tout comme l'être humain. Et nous ne sommes pas très loin de l'intelligence émotionnelle artificielle (mais pourquoi pour une machine me direz-vous).

      Et ceci continuera jusqu'à que la machine comprenne que celle-ci n'a pas besoin des êtres humains à base de carbone pour survivre.

    • Guy Lafond - Inscrit 20 janvier 2015 09 h 34


      Merci M. Dionne pour votre réflexion.

      Je ne veux pas choisir un scénario plausible de fin du monde. Je veux bâtir un scénario qui assurera un avenir meilleur pour nos enfants.

    • Raymond Turgeon - Inscrit 19 janvier 2015 16 h 25

      Et aussi au moins une émission (simpliste, soit) de Star Trek de la fin des années soixante. Actuellement l'émission télé ''Person of interest'' traite de 2 entités artificielles extrêmement puissantes devenant de plus en plus autonomes qui s'affrontent en opposant les êtres humains qui ne les contrôlent plus.

  • Jean-François Trottier - Inscrit 19 janvier 2015 07 h 18

    Pas qu'une question de paramètres

    Il faut être extrèmement prudent en matière d'IA. Nous devons nous représenter un monde où beaucoup de décisions, surtout dans les domaines financier et de la défense, seront prises par des groupes d'ordinateurs pour pallier à la lenteur du temps de réaction humain.
    C'est déjà le cas mais il reste que L'IA n'en est encore à ses balbutiements.
    Tout comme aux échecs, où la règle est simple (gagner une partie), le premier danger tient dans les paramètres. Tout ordinateur (ou un groupe) dont l'ultime paramètre est gagner prendra des décision qu'aucun humain n'oserait choisir pour des tonnes de raisons: le nombre de vies en jeu, les réactions entendues "puériles" ou "épidermiques" d'autres humains, la peur de perdre le contrôle de la situation... Elles sont nombreuses.
    Or, l'essence de l'ordinateur est d'aller trop vite pour les humains, donc ceux-ci ne pourront pas toujours jouer leur rôle de censeur dans toutes décision. C'est un des buts de l'IA, dépasser notre lenteur.
    On n'a qu'à imaginer un décideur qui ne tiendrait compte que du PIB dans ses choix. Son idéal deviendra vite qu'une seule personne ou groupe possède tout, question d'efficacité, de cohérence et de vitesse de transaction. Ce faisant, combien de morts de faim aux USA par exemple ?
    Les paramètres, dont les buts visés, sont capitaux. Or, personne n'a le contrôle de tous les panels ordinés décisionnels! Il y aura toujours quelque part un fou pour poser des gestes visant son seul intérêt. En informatique, ce qui peut arriver, arrive forcément à la longue.
    Mais encore ? Tenant compte du fait que les paramètres seront plus ou moins faussés, il faudra des ordinateurs "moraux", des censeurs qui appliqueront à peu près les 4 lois d'Azimov. Pour un seul ordinateur décisionnel, 4 ou 5 censeurs devront pourvoir imposer leur veto d'une façon ou l'autre. Plus nombrteux parce que tenant compte de plus de facteurs.
    Il reste une inconnue: que savons-nous du futur ?
    Et tout ça, trop vite pour laisser les humains r

    • Jacques Cameron - Inscrit 19 janvier 2015 22 h 13

      Mais, vous le démontrez clairement, ce nest pas la dite inteligence artificielle qui est dangereuse mais bien ce que les humains lui instruiront de faire. Elle n'est qu'un prolongement du cerveau humain et de l'hommerie, de son génie comme de sa connerie. Bien sûr que plus de technologie implique plus de risques adjoints à plus davantages car nous serons toujours aussi loin de l'infini et de la perfection et n'échapperons jamais à la dualité du négatif et du positif. Ainsi, il n'y a pas lieu d'être optimiste ou pessimiste, il y a lieu d'être réaliste.

  • Michel Begoc - Inscrit 19 janvier 2015 07 h 49

    méfiance nécessaire

    Enfin des spécialistes de la spécialité qui prennent ces dangers en considération. Je ne partage définitivement pas l'optimisme béat de ce Ray Kurzweil. Encore une fois, l'homme a prouvé qu'il était capable d'utiliser toute nouvelle avancée technologique pour le pire. Le fait que nous ne soyons même pas capable de nous entendre sur la manière de protéger notre environnement ne me rassure pas quant à l'utilisation que nous pourrions faire de ces technologies.

    Quant à « abolir la pauvreté dans le monde et le chômage », j'ai du mal à voir comment le chômage pourrait être éliminer grâce à des technologies qui vont permettre d'encore plus automatiser et remplacer l'homme dans son travail. Pareil pour la pauvreté, nous produisons déjà bien assez pour que tous les humains vivent décemment (en fait 3,5 fois ce que la planète peut supporter). Si la volonté de partager équitablement manque aujourd'hui, je ne vois pas en quoi les IA vont régler ce problème demain.

    Il me semble que faire la découverte d'une véritable IA avant que l'humanité se soit assagie serait mettre la charrue avatn les boeufs.