Intelligence artificielle : un bouton de panique contre le syndrome Hal

Intelligence artificielle dans sa perspective dystopique dans I, Robot (2004) d'Alex Proyas.
Photo: Intelligence artificielle dans sa perspective dystopique dans I, Robot (2004) d'Alex Proyas.
Vous vous souvenez de Hal, cette intelligence artificielle paranoïaque du film de Stanley Kubrick 2001: A Space Odyssey? Vous vous rappelez l’angoisse que cet ordinateur de bord installe à l’intérieur du Discovery One en éradiquant méthodiquement chacun des trois humains qui, après avoir découvert des anomalies dans son système, cherchent à le désactiver pour ne pas mettre en péril la mission?

Et bien, même si tout ça relève encore et toujours de la science-fiction, Google travaille activement à empêcher que le «syndrome Hal» ne s’incarne un jour dans le quotidien d’un monde où l’intelligence artificielle est appelée à prendre de plus en plus de place. Comment? En posant les bases d’un «bouton de panique» que les humains pourraient utiliser à l’aube de ce que les oiseaux de malheur appellent l’apocalypse robotique.

Les bases du concept viennent d’être exposées dans un article scientifique franchement hermétique, mais visiblement nécessaire, que vient de publier Laurent Orseau, ingénieur chez Google DeepMind, la division de la multinationale qui a mis au monde le programme AlphaGo, cette intelligence artificielle qui a battu l’humain au jeu de Go en mars dernier. Il cosigne ce papier intitulé Safely Interruptible Agents (traduction libre : Agents intelligents à interruption sécuritaire) avec le philosophe Stuart Armstrong du Future of Humanity Institute de l’Université Berkeley en Californie

Pour les deux hommes, l’avènement d’intelligences artificielles dans la vie quotidienne des humains impose la création d’un «bouton rouge» utilisable uniquement par un agent humain pour prévenir et «interrompre des séquences d’actions néfastes pour la machine tout comme pour son environnement», écrivent-ils sobrement. Dans le cas de systèmes qui apprennent de leurs interactions avec les humains, ce bouton ne doit par ailleurs pas pouvoir être désactivé par la machine elle-même, poursuivent-ils. Forcément.

En entrevue au quotidien Le Monde, Laurent Orseau précise que la création de ce bouton répond pour le moment à un problème très théorique. À l’heure actuelle, il n’existe aucune intelligence artificielle qui ne soit pas facile à débrancher. « Aujourd’hui, on peut arrêter tout programme de la manière qu’on veut, mais cela signifie en général qu’on doit tout recommencer à zéro, explique-t-il. Ces interruptions peuvent l’empêcher d’apprendre correctement. »

Il ajoute que ses recherches visent surtout à «réfléchir à un certain futur» et à anticiper l’émergence de «superintelligence», contre qui il serait « bien d’avoir certains ressorts pour agir », et éviter que la réalité ne dépasse finalement la science-fiction.
3 commentaires
  • Denis Paquette - Abonné 10 juin 2016 09 h 33

    Azimov...

    Les chercheurs n'envisagent donc pas d'utiliser les trois lois de la robotique, telles qu'imaginées par Isaac Azimov? Est-ce parce l'intelligence artificielle n'est pas encore assez avancée maintenant pour les comprendre? Mais pour ce qui est dans un futur proche?

    Quelqu'un aurait de l'information à ce sujet?

  • Louis-Philippe Tessier - Abonné 10 juin 2016 09 h 36

    L'humain

    Dans l'odyssée de l'espace, l'ordinateur HAL ne fait que suivre l'ordre de mission programmé par ses "maîtres humain" sur Terre. Probablement que les mêmes personnes qui ont programmé HAL pourrait rendre inutilisable un bouton panique.

    L'être humain sera toujours responsable des agisements des intélligences artificielles.

  • Lise Allard - Abonnée 10 juin 2016 10 h 07

    Le monde financier pilote déjà aux instruments

    On nous dit: À l’heure actuelle, il n’existe aucune intelligence artificielle qui ne soit pas facile à débrancher. « Aujourd’hui, on peut arrêter tout programme de la manière qu’on veut.

    Or, c'est complètement faux. Les bourses à travers le monde fonctionnent dans un mode hautement automatisé. Elles sont littéralement pilotées par des algorytmes qu'on laisse agir de manière autonome. Ces algorythmes sont tellement complexes qu'on ne peut réellement en prévoir le comportement. Récemment il y a eu un épisode de mini crash qui a fait peut à tout le monde. Il n'a duré que quelques minutes heureusement, mais personne ne l'avait anticipé. Il pourrait y en avoir d'autres et surtout personne ne sait comment "débrancher" un tel monstre bel et bien implanté dans la pratique financière à l'échelle globale.

    On se rappelle aussi que le FMI s'est excusé pour des conclusion erronées à propos des méfaits de l'austérité. Le modèle mathématique était erronné. C'est donc qu'on s'y fie presque aveuglément.

    On en est réduit à se souhaiter bonne chance.