Doutons de l’intelligence de l’intelligence artificielle

L’Américain John Searle se demande dans son article «Minds, Brains and Programs» ce qui manque à l’ordinateur pour comprendre les informations qu’il manipule. Une sémantique.
Illustration: Tiffet L’Américain John Searle se demande dans son article «Minds, Brains and Programs» ce qui manque à l’ordinateur pour comprendre les informations qu’il manipule. Une sémantique.

Deux fois par mois, Le Devoir lance à des passionnés de philosophie et d’histoire des idées le défi de décrypter une question d’actualité à partir des thèses d’un penseur marquant.

Les intelligences artificielles (I.A.) sont aujourd’hui plus compétentes et performantes que l’être humain dans de nombreux domaines. Deep Blue est champion d’échecs depuis 20 ans, tandis qu’AlphaGo a récemment battu le meilleur joueur au monde de Go. De son côté, Watson, l’I.A. qui avait gagné à Jeopardy !, diagnostique mieux certains cancers qu’un médecin. Faut-il y voir l’émergence d’esprits d’un nouveau genre ? Siri, l’intelligence artificielle d’Apple, possède-t-elle des états mentaux ? Et Google Translate comprend-il le chinois ?

Photo: IVADO Le chercheur Martin Gibert s’intéresse notamment à l’éthique de l’intelligence artificielle et à la psychologie morale.

En 1980, lorsqu’il publie « Minds, Brains and Programs » (Esprits, cerveaux et programmes), c’est déjà le genre de questions qui tracassent le philosophe américain John Searle. Dans le style clair et précis propre aux philosophes analytiques, il présente en une quarantaine de pages du journal Behavioral and Brain Sciences un des plus célèbres arguments du XXe siècle : la chambre chinoise. En s’appuyant sur une expérience de pensée, il montre que ce n’est pas parce qu’un ordinateur est programmé pour avoir l’air de comprendre le langage qu’il le comprend réellement.

Le test de Turing

Tout commence avec une antichambre chinoise. Cela se passe en 1950 à Oxford, Angleterre. Alan Turing, le père de l’informatique, publie un article fondateur pour la recherche en intelligence artificielle. La question qu’il se pose : comment savoir si une machine est intelligente ? Et sa réponse tient à l’élaboration d’un test simple. Si, dans des conditions prédéfinies, une machine réussit à se faire passer pour un interlocuteur humain, alors on peut la qualifier d’intelligente.

Nous touchons là aux sciences cognitives, ce champ de recherche qui étudie de façon conjointe les cerveaux et les ordinateurs. Il s’agit d’expliquer et de modéliser des phénomènes comme la perception, le raisonnement, la conscience ou l’intelligence. Bien évidemment, cela n’est pas sans soulever d’autres interrogations : qu’est-ce qui, dans le fond, distingue les machines et les gens ? comment définir l’intelligence ?

Le test de Turing offre au moins une réponse négative : l’intelligence n’est pas définie par son « support ». Elle peut dès lors être aussi bien naturelle qu’artificielle. Elle peut sortir des neurones d’un cerveau tout autant que des circuits en silicium d’un processeur. Dans le test, c’est l’« effet » de l’intelligence sur des créatures intelligentes (nous) qui compte, pas sa nature physique. Turing adopte par là le « fonctionnalisme », une approche en philosophie de l’esprit qui soutient que les états mentaux sont définis par leur fonction, c’est-à-dire par leur rôle causal. Dans cette perspective, les cerveaux et les ordinateurs ne sont en définitive que deux systèmes de traitement de l’information. Ils suivent un programme qui produit des sorties (output) après avoir appliqué des règles de transformation sur des entrées (inputs).

À la fin des années 1970, plusieurs chercheurs estimaient que des programmes informatiques pouvaient passer le test de Turing ou, du moins, en étaient assez proches. C’est pour répondre à l’un d’entre eux, Roger Schank, que Searle a développé son argument. Il s’agit pour lui de montrer que les fonctionnalistes se trompent et que le test de Turing n’est pas un bon critère pour évaluer l’intelligence ou la conscience d’un ordinateur.

Si l’homme dans la chambre ne comprend pas le chinois en mettant en oeuvre le programme approprié, alors aucun ordinateur numérique ne peut non plus le faire sur cette seule base, car aucun ordinateur, en tant qu’ordinateur, n’a quelque chose que l’homme n’aurait pas

 

Siri, comprends-tu ce que je te dis ?

L’argument de Searle s’appuie sur une expérience de pensée devenue presque mythique. Imaginez qu’un homme qui ne parle aucun mot de chinois est enfermé dans une chambre. Il reçoit des idéogrammes correspondant à des questions. Il consulte alors des livres de règles qui lui indiquent comment répondre, en associant des symboles d’entrée à des symboles de sortie — mais sans lui révéler le sens de ces symboles. De quoi cela aurait-il l’air pour une interlocutrice sinophone extérieure à la chambre ? Si les réponses sont cohérentes, elle conclura qu’elle est face à une entité intelligente. Bref, la chambre chinoise aura passé avec succès le test de Turing.

Pourtant, l’homme ne comprend rien à ce qu’il traite ni à ce qu’il répond ; il n’a accès à aucun dictionnaire de traduction. « L’argument est le suivant : si l’homme dans la chambre ne comprend pas le chinois en mettant en oeuvre le programme approprié, alors aucun ordinateur numérique ne peut non plus le faire sur cette seule base, car aucun ordinateur, en tant qu’ordinateur, n’a quelque chose que l’homme n’aurait pas. » Il s’ensuit qu’on ne peut pas dire qu’un algorithme comprend les informations qu’il traite.

Affirmer cela revient aussi à refuser ce que Searle nomme la thèse de l’I.A. forte, à savoir l’idée qu’un ordinateur ou un algorithme, s’il est correctement programmé, « est » un esprit. Une I.A. forte serait consciente dans la mesure où elle comprendrait ce qu’elle fait et posséderait des états mentaux. Searle soutient au contraire la thèse de l’I.A. faible : les ordinateurs sont des outils qui peuvent simuler la pensée, mais ils ne la comprennent pas. Searle reprendra plus tard cette idée en affirmant que l’I.A. faible n’a pas de contenus intentionnels. Il veut dire par là qu’elle n’a pas d’états mentaux à propos du monde. Siri ne croit rien. Elle ne désire ni ne craint rien. Elle ne comprend rien.

Est-ce à dire qu’une machine ne peut pas penser ou que le cerveau humain est le siège d’une âme mystérieuse ? Non, répond Searle. On peut tout à fait envisager l’existence d’un esprit artificiel doté d’une conscience. Mais un tel esprit ne pourrait pas reposer uniquement sur un programme informatique — il aurait besoin d’autres éléments pour reproduire les propriétés physicochimiques du cerveau (on peut aussi penser, avec les partisans de la cognition incarnée, qu’il aurait besoin d’un corps).

Dans le fond, se demande Searle, qu’est-ce qui manque à l’ordinateur pour comprendre les informations qu’il manipule ? Ni plus ni moins qu’une sémantique. Contrairement à un esprit humain qui sait que le terme « mouche » signifie quelque chose et renvoie à un objet du monde, le programme informatique manipule des symboles formels, enchaîne éventuellement les calculs statistiques, mais n’a pas accès à leur signification. Autrement dit, un programme informatique ne contient rien de plus qu’une syntaxe (l’équivalent d’une grammaire). En fin de compte, explique Searle, si l’I.A. forte est un horizon lointain, c’est parce que « la syntaxe, par elle-même, ne peut suffire à constituer un contenu sémantique ».

Conjectures et réfutations

Dans son article de 1980, Searle répond aussi à plusieurs objections — il faut dire qu’il avait déjà présenté sa thèse dans différents campus et qu’il avait essuyé de nombreuses critiques. On lui a notamment fait remarquer que l’analogie était boiteuse. Certes, l’homme dans la chambre ne comprend pas le chinois, mais le « système », qui inclut les livres de règle et l’humain qui les applique, lui, pourrait bien le comprendre. Searle réplique en supposant que l’homme a appris par coeur l’ensemble des règles/programmes : il pourrait encore donner le change à une interlocutrice chinoise tout en ne comprenant rien à la conversation.

Une autre critique remet en question la fiabilité de notre intuition épistémique face à cette expérience de pensée. Comme le remarque le philosophe Daniel Dennett, dans la chambre chinoise, les choses se passent lentement : consulter des livres de règles, retranscrire une réponse. Par contraste, l’activation des neurones ou des processeurs est un processus ultrarapide. Et l’intelligence semble, au moins en partie, être une affaire de vitesse. Dès lors, comment être certain qu’à la longue, l’homme dans la chambre ne finirait pas par comprendre le chinois ?

Peut-être avons-nous seulement trop l’habitude d’associer compréhension et esprit humain pour admettre qu’une machine puisse réellement penser. On peut en tout cas facilement imaginer que des extraterrestres découvrant que notre cerveau est fait de « viande » resteraient incrédules devant sa capacité à produire une pensée authentique. Sommes-nous dans une position très différente lorsque nous n’acceptons pas que la chambre chinoise pense ?

Aujourd’hui encore, le dossier n’est pas clos. Si plusieurs philosophes reconnaissent que l’argument est valide, d’autres, comme Daniel Dennett, n’y voient pas une réfutation en bonne et due forme que l’I.A. comprend le chinois.

Qu’est-ce que ça change ?

On peut se demander quelle différence cela fait-il que Siri comprenne ou non ce que vous lui dites. Certes, c’est une question fascinante lorsqu’on s’interroge sur la nature de l’esprit. Mais d’un point de vue pratique, peu importe que l’intelligence des I.A. soit réelle ou simulée. Ce qui compte, après tout, n’est-ce pas simplement que Google Translate me permette de comprendre des interlocuteurs chinois ?

Reste que les I.A. ont parfois la capacité de décider et d’agir de façon autonome. Elles peuvent donc être des agents qui influencent nos vies — en bien ou en mal. Et qu’elles y comprennent quelque chose ou non, nous avons tout intérêt à les programmer de manière à ce qu’elles « partagent » nos valeurs morales.

Imaginez, pour finir, qu’une mouche se pose sur un mur de la chambre chinoise. Toutes choses étant égales par ailleurs, à qui devrait-on accorder le plus de considération morale ? À Siri qui ne ressent rien ou à la mouche dont on peut supposer qu’elle a des sensations agréables et désagréables ? Vous pouvez bien insulter Siri, la désinstaller ou simplement éteindre votre téléphone ; vous ne lui causerez aucun tort. Mais vous pourriez faire du mal à une mouche.


Des commentaires ? Écrivez à Robert Dutrisac : rdutrisac@ledevoir.com. Pour lire ou relire les anciens textes du Devoir de philo.
11 commentaires
  • Jean-François Trottier - Abonné 12 mai 2018 08 h 55

    Viser à côté

    La question est déplacée.

    En effet, l'intelligence artificielle reste... artificielle.
    J'ai il y a au moins 20 ans compris que, tant qu'un ordinateur n'aura pas peur pour lui-même, il n'aura jamais une imagination comparable à celle même d'un perroquet. Idéalement, peur de mourir, mais peur en tout cas.

    Or l'imagination est une part essentielle de l'intelligence.

    La question reste donc : l'IA jouera certainement un rôle capital dans le futur.

    D'abord en tant qu'extension de la volonté d'un tout petit groupe d'humain possèdant déjà presque toute la richesse monnayable, et qui, c'est là que ça se corse, n'en a jamais assez. À ce point on ne parle plus d'argent mais de pouvoir à l'état pur.
    Jusqu'à quel point ces gens sont fous? Question facile. Ils sont fous à 100%. Qui peut en douter?
    D'ailleurs moi aussi je suis fou à 100%, alors ?

    Jusqu'à quel point ces fous sont sadiques ou insensibles ? Là les réponses varient beaucoup. Pour la plupart il ressentent le besoin d'être reconnus socialement et moralement : comme un peu tout le monde ils veulent se faire dire qu'ils font "comme il faut",

    La machine pallie un peu à cette faiblesse. Elle n'a pas peur de mal agir. Est-ce à dire que nous nous dirigeons vers des tueries de masse ? Non. Parlons de contrôle de plus en plus serré de nos vies, de disparition de l'intimité (déjà plutôt symbolique).

    On a vu des systèmes-expert, très loin de l'IA, faire des gaffes qui ont, entre autres, provoqué des crises financières.
    Les serveurs de l'IA se verront confier des responsabilités immenses. Les bugs feront donc des dégâts terribles.
    Sans déclarer de guerre, il est possible que l'IA en provoque. Le contraire serait étonnant.

    Nier le poids de l'AI revient à nier l'importance des ordis depuis 40 ans!

    Non, nous ne serons pas dirigés par un ordi tout-puissant.
    C'est pire: un quelconque mégalo finira bien par trouver le moyen d'accéder aux commandes.
    Tiens! C'est déjà fait!

    • Sylvain Auclair - Abonné 13 mai 2018 10 h 11

      En quoi la peur de mourir est-elle liée à l'intelligence?

  • Marguerite Paradis - Abonnée 12 mai 2018 09 h 15

    DES INTELLIGENCES HUMAINES MULTIPLES

    Comme société, nous ne sommes pas encore capable de tenir compte des intelligences multpiles de la personne dans l'enseignement, dans les réunions d'équipe de travail, dans la gestion politique du bien commun, etc.
    Je préfère l'investissement dans le développement du potentiel de chaque personne.
    MerciS

  • Pierre-Alain Cotnoir - Abonné 12 mai 2018 09 h 37

    En bonne partie d'accord, mais...

    Le commentaire de Searle concernait plus spécifiquement la programmation symbolique du type Lisp ou Prolog. L'utilisation de réseaux neuroniques qui a commencé à connaître un plus grand succès après la publication du livre "Parallel Distributed Processing" de Rumelhart et McClelland en 1986 procède de manière fort différente. L'extraction des caractèristiques ("features") par un perceptron multicouches s'apparente plus aux résultats obtenus par un algorithme d'analyse multivariée comme l'analyse discriminante. Dans un débat contradictoire fort intéressant lors de la conférence du NIPS en décembre 2017 sur l'interprétabilité de la compréhension obtenue en apprentissage profond (voir https://www.youtube.com/watch?v=93Xv8vJ2acI ), Yan LeCun après avoir soutenu que c'était d'abord le résultat obtenu qui comptait, ajoutait que ce qui manquait aux réseaux neuroniques, c'était une "compréhension du monde", c'est-à-dire d'accéder au "sens commun" d'une connaissance du monde extérieure. Celle que nous acquerrons au cours des premières années de l'enfance et qui a bien été décrite par Piaget. Or, plusieurs laboratoires travaillent actuellement pour surpasser cette première limitation. La deuxième inconnue, plus de type phénoménologique, concerne les caractéristiques que détectent les réseaux neuroniques. Celles-ci peuvent être de nature fort différente de celles qu'un cerveau humain pourra extraire de la même expérience "sensorielle". Quelles sont celles qui permettent à un réseau neuronique convolutif de reconnaître un chat ou une vache? Elles peuvent n'avoir rien à voir avec nos propres expériences. Ce débat d'ailleurs renvoie même à la vieille question de savoir si mon expérience de la couleur rouge est la même que celle de mon voisin ou plus encore de celle d'un chat...

  • Marc Therrien - Abonné 12 mai 2018 09 h 50

    En attendant que l'intelligence artificielle doute d'elle-même


    Si «les intelligences artificielles (I.A.) sont aujourd’hui plus compétentes et performantes que l’être humain dans de nombreux domaines», c’est simplement qu’il en va ainsi dans le domaine de l’intelligence humaine. Ainsi, l’intelligence artificielle n’est pas sans limite. Il me semble logique de penser qu’elle ne pourrait surpasser le plus intelligent des scientifiques qui l’ont programmée. Par définition, un programme exécute les actions qui ont été prévues par la pensée qui l’a créé. On ne peut imaginer un programme qui aurait la capacité de s’auto corriger face à un imprévu qui n’avait pas été prévu justement. Si les chercheurs en neurosciences computationnelles aspirent à mieux comprendre le cerveau à l’aide des modèles des sciences informatiques, il est loin d’être certain qu’ils pourront un jour faire l’inverse et créer un ordinateur humain après avoir tout compris eux-mêmes du cerveau et de la cognition. Une limite de l’intelligence artificielle qui me semble indépassable se situe donc dans son manque de créativité ou plus spécifiquement dans l’incapacité des scientifiques de recréer la capacité auto poïétique du système complexe corps-esprit qui s’est construite au fur et à mesure que s’est tissé le réseau d’information et d’intercommunication hypercomplexe qui permet à un être humain d’apprendre continuellement pour se maintenir en perpétuelle évolution en relation avec son environnement en perpétuel changement. On pourra continuer à douter de l’intelligence de l’intelligence artificielle tant qu’elle n’aura pas développé une conscience réflexive lui permettant de douter d’elle-même et de remettre en question ses décisions et actions voire même d'hésiter.

    Marc Therrien

    • Pierre-Alain Cotnoir - Abonné 12 mai 2018 13 h 26

      Personne ne programme les réseaux neuroniques. Essentiellement, ce sont des réseaux qui apprennent par eux-même de manière supervisée ou par renforcement. Très peu de réseaux neuroniques procèdent par apprentissage non-supervisé. Ainsi, Alphago Zero a appris à jouer au jeu de go sans aucune aide humaine (https://deepmind.com/blog/alphago-zero-learning-scratch/ ) uniquement par renforcement et surpasse désormais les plus grands maîtres de ce jeu, ayant découvert de nouvelles stratégies que les humains n'avaient même jamais imaginées, alors qu'ils jouent à ce jeu depuis plus de 3000 ans!

      Aussi , il est erroné d'écrire « Il me semble logique de penser qu’elle ne pourrait surpasser le plus intelligent des scientifiques qui l’ont programmée», car c'est déjà le cas. Les réseaux neuroniques (c.-à-d. composés de neurones artificielles), mimant les processus découverts originellement par le neurophysiologiste Hebb et améliorés en y ajoutant les contributions de Hubel et Wiesel sur la fonctionnalité des neurones complexes, ne sont pas programmés, ils sont configurés de manière à pouvoir "apprendre" par eux-mêmes. Ce qui fait toute la différence!

    • Marc Davignon - Abonné 13 mai 2018 15 h 43

      Non, M. Cornoir. Les réseaux neuroniques sont bel et bien le résultat d'une programmation, il n'y a pas de magie, il n'y a pas de mystérieuse apparition de conscience spontanée dans les réseaux neuronique, il y a des «poids» et des «conditions», ce qui fait qu'après une très longue préparation, l'«accumulation» fera une création des réseaux du possible, soit, un monde fermé. Le programme qui a gagné à Go ne gagnera pas à autre chose qu'à Go.

  • Marcel (Fafouin) Blais - Abonné 13 mai 2018 07 h 51

    … disparition ?!?

    « Est-ce à dire qu’une machine ne peut pas penser ou que le cerveau humain est le siège d’une âme mystérieuse ? Non, répond Searle. On peut tout à fait envisager l’existence d’un esprit artificiel doté d’une conscience. Mais un tel esprit (…) (aurait besoin d’un corps). » (Martin Gilbert, Chercheur en Éthique, UMtl)

    Des propos de Searle, ce questionnement :

    Si ce genre de machine, dotée d’une « conscience », parfois supérieure de celle de l’être humain, réussit à penser et vivre des émotions, que souhaite-t-on de l’espèce humaine ?!?

    Sa « robotisation » ou sa …

    … disparition ?!? - 13 mai 2018 -