Passer à la version normale du sitePasser à la version large du siteTaille d'écran
  • Facebook
  • Twitter
  • RSS
  • Connectez-vous
    Les mutations tranquilles CULTURES + SOCIÉTÉ + PARADOXES

    Intelligence artificielle : un bouton de panique contre le syndrome Hal

    Intelligence artificielle dans sa perspective dystopique dans I, Robot (2004) d'Alex Proyas.
    Photo: Intelligence artificielle dans sa perspective dystopique dans I, Robot (2004) d'Alex Proyas.
    Vous vous souvenez de Hal, cette intelligence artificielle paranoïaque du film de Stanley Kubrick 2001: A Space Odyssey? Vous vous rappelez l’angoisse que cet ordinateur de bord installe à l’intérieur du Discovery One en éradiquant méthodiquement chacun des trois humains qui, après avoir découvert des anomalies dans son système, cherchent à le désactiver pour ne pas mettre en péril la mission?

    Et bien, même si tout ça relève encore et toujours de la science-fiction, Google travaille activement à empêcher que le «syndrome Hal» ne s’incarne un jour dans le quotidien d’un monde où l’intelligence artificielle est appelée à prendre de plus en plus de place. Comment? En posant les bases d’un «bouton de panique» que les humains pourraient utiliser à l’aube de ce que les oiseaux de malheur appellent l’apocalypse robotique.

    Les bases du concept viennent d’être exposées dans un article scientifique franchement hermétique, mais visiblement nécessaire, que vient de publier Laurent Orseau, ingénieur chez Google DeepMind, la division de la multinationale qui a mis au monde le programme AlphaGo, cette intelligence artificielle qui a battu l’humain au jeu de Go en mars dernier. Il cosigne ce papier intitulé Safely Interruptible Agents (traduction libre : Agents intelligents à interruption sécuritaire) avec le philosophe Stuart Armstrong du Future of Humanity Institute de l’Université Berkeley en Californie

    Pour les deux hommes, l’avènement d’intelligences artificielles dans la vie quotidienne des humains impose la création d’un «bouton rouge» utilisable uniquement par un agent humain pour prévenir et «interrompre des séquences d’actions néfastes pour la machine tout comme pour son environnement», écrivent-ils sobrement. Dans le cas de systèmes qui apprennent de leurs interactions avec les humains, ce bouton ne doit par ailleurs pas pouvoir être désactivé par la machine elle-même, poursuivent-ils. Forcément.

    En entrevue au quotidien Le Monde, Laurent Orseau précise que la création de ce bouton répond pour le moment à un problème très théorique. À l’heure actuelle, il n’existe aucune intelligence artificielle qui ne soit pas facile à débrancher. « Aujourd’hui, on peut arrêter tout programme de la manière qu’on veut, mais cela signifie en général qu’on doit tout recommencer à zéro, explique-t-il. Ces interruptions peuvent l’empêcher d’apprendre correctement. »

    Il ajoute que ses recherches visent surtout à «réfléchir à un certain futur» et à anticiper l’émergence de «superintelligence», contre qui il serait « bien d’avoir certains ressorts pour agir », et éviter que la réalité ne dépasse finalement la science-fiction.












    Envoyer
    Fermer