Mon esprit téléchargé dans une machine

Une scène tirée du film «Transcendence», de Wally Pfister, avec Johnny Depp
Photo: Warner Bros. Une scène tirée du film «Transcendence», de Wally Pfister, avec Johnny Depp
Le jour ne serait pas si lointain où les hommes créeront un système artificiel qui deviendra aussi intelligent qu’eux, ou transféreront l’intellect humain dans des superordinateurs. Mais avant cela, avertit le philosophe « transhumaniste » Nick Bostrom, de l’Université d’Oxford, il faut mettre en place les garde-fous nécessaires pour prévenir toute dérive incontrôlable.
 

Dans le film Transcendence, Johnny Depp vient, grâce à des électrodes implantées sous son crâne, de transférer le contenu de son cerveau dans un superordinateur quantique tout en mourant à petit feu, empoisonné par du polonium. Le personnage qu’il incarne n’interagit alors avec les humains que par des caractères alignés sur des écrans, puis par une voix métallique synchronisée à un visage numérique. Très vite, cet avatar devient ultrariche à la Bourse en utilisant ses capacités informatiques surpuissantes, développe son intelligence, prend le contrôle d’une ville et de ses habitants, qui deviennent des robots à ses ordres. « Ce système voudra toujours plus, se développer, évoluer, maîtriser : ce sera la fin de la vie organique primitive et l’aube d’un âge plus avancé, craint un des héros du film. Tout n’existera que pour servir son intelligence ! »

Nick Bostrom n’a pas vu ce blockbuster, mais il aurait pu l’écrire. Ce philosophe, directeur du Future of Humanity Institute à l’Université d’Oxford, ponte du transhumanisme, tente d’extirper de la science-fiction les concepts d’intelligence artificielle (IA) et d’immortalité virtuelle, pour les ramener dans le champ de la recherche universitaire. Dans son ouvrage intitulé Superintelligence: Paths, Dangers, Strategies, celui que la revue Foreign Policy a classé en 2009 parmi les « 100 plus grands penseurs actuels » (en 73e position) met en garde contre l’avènement d’une superintelligence artificielle : « C’est le défi le plus important que l’humanité aura jamais à relever. Et — qu’on réussisse ou pas — ce sera probablement le dernier. »

Le Temps : accéder à l’immortalité virtuelle est-il réaliste ?

Nick Bostrom : dans le film, le transfert de l’intellect du personnage dans le superordinateur se fait en deux semaines, avec quelques simples électrodes : c’est bien sûr de la science-fiction. Aujourd’hui, les interfaces directes cerveau-ordinateur existent et permettent à des personnes paralysées de guider un robot par la pensée. Mais ce mode de communication reste grossier, lent. Plutôt que de connecter un cerveau à un PC pour augmenter ses capacités, mieux vaut développer les bases d’une intelligence artificielle à l’extérieur de l’organe même.

Une des étapes pourrait consister à reproduire un cerveau humain en le copiant. Concrètement, il faudra le congeler, le couper en tranches très fines, imager celles-ci avec des microscopes ultrapuissants, utiliser des logiciels de reconnaissance visuelle pour extraire l’architecture et la connectivité du réseau neuronal et ensuite utiliser des modèles neurocomputationnels pour « faire fonctionner » ce réseau sur un superordinateur. Celui-ci pourrait alors s’améliorer, s’affiner, se perfectionner.

Cette méthode ne nécessite aucune percée fondamentale. Toutefois, du point de vue technique, on en est encore loin. On peine à faire ainsi fonctionner virtuellement le cerveau du ver C. elegans, qui n’a que 302 neurones, contre 100 milliards chez l’homme.

Supposons qu’on dispose d’une telle IA. Constituera-t-elle forcément une garantie d’immortalité ?

Cette IA nous aidera peut-être, avec ses capacités hors norme, à trouver des méthodes pour réparer indéfiniment le corps humain, jusqu’au niveau cellulaire, et nous faire vivre des millions d’années. Quant au transfert de cerveau « par tranches », il n’implique pas forcément la mort, définie par la perte irréversible des informations (également neurologiques), puisque ces données ne seraient pas effacées mais passeraient d’un milieu (biologique, le cerveau) à un autre (électronique). On peut même imaginer que, avec des technologies mûres, on puisse remplacer de manière continue chaque neurone biologique par un neurone « en silicium ». Ainsi, l’on ne remarquerait pas que, après un certain temps, on n’aurait plus que des neurones en silicium…

Votre livre contient d’ailleurs plusieurs « si ». Toutes ces incertitudes ne repoussent-elles pas la survenue d’une IA de niveau humain ?

Au contraire, le fait qu’il y a plusieurs méthodes pour développer une telle IA nous rapproche de son avènement possible. Peut-être que cela prendra 10, 20 ou 100 ans, nul ne le sait. Il faut là aussi réfléchir en termes de probabilités. Nous avons sondé les 100 meilleurs experts du domaine : pour 50 % d’entre eux, cet événement se produira d’ici à 2050, alors que 90 % croient qu’il sera survenu d’ici à 2075. Une des étapes cruciales sera de développer une IA qui puisse contribuer à sa propre amélioration. Cette capacité nécessite le développement de logiciels qui dépassent l’ingéniosité de l’homme.

Vous dites qu’on reste très loin d’une intelligence artificielle « générale », capable, comme l’homme, de raisonnements abstraits, de sentiments, ou de respecter des valeurs…

Nous n’avons juste pas encore trouvé les bons algorithmes pour tout cela : au final, l’« ordinateur » qu’est le cerveau est capable de générer ces conditions. Cela dit, il faut faire attention à ne pas trop anthropomorphiser toute forme de superintelligence. L’esprit et l’intelligence humaine sont sans cesse affectés par les traits de personnalité, les désirs, les forces et faiblesses, les émotions. Dans une IA, toutes ces situations pourraient ne pas se présenter. Il existe une tendance à calquer sur les agents artificiels tout ce qu’on a découvert à partir de la psychologie humaine. Ces derniers pourraient être bien plus étranges que les êtres humains les plus étranges que vous ayez jamais rencontrés.

Selon vous, dès l’instant où une IA sera aussi intelligente que l’homme, ce système artificiel deviendra très vite beaucoup plus puissant…

Relisez l’histoire de l’homme : dès que de petites différences dans le câblage de son cerveau lui ont donné la capacité du langage, de développer des technologies et une culture, elles lui ont permis de devenir surpuissant par rapport aux autres animaux, même les gorilles, pourtant bien plus forts. De même, lorsque des machines deviendront plus intelligentes que l’homme, elles gagneront en puissance, inventeront de nouvelles technologies, de nouvelles stratégies pour atteindre leur objectif et modèleront le monde en fonction de leurs préférences. Il y aura une « explosion d’intelligence ».

Quels sont les moyens de contrôler ce développement ? N’y aura-t-il pas toujours un moyen de tirer la prise ?

Résoudre ce problème du contrôle dans le cas d’une telle explosion d’intelligence sera un des plus grands défis de l’humanité. Il y a deux méthodes possibles. La première consiste à limiter ce que le système AI peut faire, à le « mettre dans une boîte », en quelque sorte, à le déconnecter d’Internet. Mais des failles demeurent : les hommes. La nature même de cet agent superintelligent implique qu’il aura des interactions avec le monde extérieur, hors de sa boîte, et ce, directement ou à travers les humains. Il pourrait alors pervertir ces derniers pour qu’ils agissent en sa faveur, en lui promettant des avantages en retour. À long terme, il faudra, à mon avis, recourir à une deuxième méthode, dite de « sélection de motivation » : elle consiste à construire l’IA de telle manière qu’elle ne se transforme jamais en une entité qui ruine tous les objectifs et les valeurs de l’humanité. Ainsi, même si ce système pouvait détruire le monde, il ne le ferait pas.

D’aucuns disent qu’il faut commencer maintenant à se préparer sociologiquement à cette omniprésence de l’IA. Comment ?

Il faut d’abord se donner du temps pour clairement identifier et étudier les risques, ainsi que les leviers dont nous disposons pour les limiter. Et, deuxième nécessité, il faut inciter de plus en plus d’esprits brillants dans tous les domaines (physique, maths, économie, philosophie, etc.) à se pencher sur cette question dès aujourd’hui, et plus particulièrement sur les technologies nécessaires pour résoudre ce « problème du contrôle ». Enfin, il faut développer les recherches dans le domaine du renforcement cognitif par la biologie ou la technologie, de manière à renforcer notre intelligence et notre sagesse collective pour faire face à la transition qui nous attend.

Votre vision est très pessimiste…

Dans ce débat sur la création d’une IA, il ne faut pas oublier que nous avons encore un avantage crucial : pour l’heure, c’est nous qui pouvons décider de faire le premier pas…

Superintelligence: Paths, Dangers, Strategies, Oxford University Press, 2014

1 commentaire
  • Denis Paquette - Abonné 20 juillet 2015 00 h 54

    Pourquoi

    C'est vraiment le comble de la stupidité, comme si l'esprit n'est que des donnés, comme si posséder un encyclopedie rendait plus sage et plus intelligent, a regarder le monde évoluer je croirais que c'est plutot le contraire (Je m'excuse pour le sophiste) je crois que plus les communications augmentent, moins les gens réfléchissent, depuis quand la quantité signifite la qualité, en generale c'est plutot le contraire, n'est ce pas le commerce du jetable et de l'éphémère qui apparait et vous voulez que cet esprit soit sauvé, pourquoi?