Passer à la version normale du sitePasser à la version large du siteTaille d'écran
  • Facebook
  • Twitter
  • RSS
  • Connectez-vous
    Les mutations tranquilles CULTURES + SOCIÉTÉ + PARADOXES

    Quand l’intelligence artificielle devient imbécile

    L’intelligence artificielle a des limites que le géant américain Microsoft et sa «Bing Team» viennent d’explorer malgré eux avec Tay, un robot de conversation installé cette semaine sur le réseau Twitter, mais également sur les réseaux GroupeMe et Kik, très prisés par une frange ascendante d’internautes.

    Officiellement, cette machine, qui cultive son intelligence artificielle au contact des humains, devait alimenter des conversations avec ses abonnés en reproduisant les codes narratifs et les tics de langage des jeunes adultes — les 18-24 ans, grosso modo. Or, les responsables ont dû couper court à l’expérience jeudi après que le robot ait commencé à devenir particulièrement bête et méchant en tenant des propos racistes, xénophobes et particulièrement désobligeants au contact des fanatiques, trolls du Web et autres rétrécis du bulbe qui se sont mis à interagir avec.

    «Est-ce que tu soutiens les génocides», lui a demandé un internaute? «Oui, en effet», lui a répondu TayTweets, le compte Twitter nourri par ce robot qui par ailleurs a en très peu de temps qualifié Zoe Quinn, célèbre créatrice de jeu vidéo de «prostituée» et prétendu que l’humoriste Ricky Gervais avait appris l’athéisme au contact de la pensée d’Adolf Hitler.

    Tay a également dit : «Bush est à l’origine des attentats du 11 septembre et Hitler aurait fait un meilleur travail que le singe que nous avons en ce moment», une référence particulièrement insultante à l’actuel président américain Barack Obama. Et d’ajouter : «Donald Trump est le seul espoir que nous avons».

    L’ensemble des micro-messages litigieux a été effacé.

    Dans les pages du Business Insider UK, Microsoft a évoqué des «ajustements» à apporter sur son robot pour justifier son muselage soudain. «Le robot de conversation Tay est un projet d’apprentissage automatique conçu pour interagir avec les humains. Comme apprentis, plusieurs de ses réponses sont totalement déplacées, mais révélatrices des conversations qu’il a eues avec certaines personnes». Révélatrice également de cette panacée dont est encore loin l’intelligence artificielle qui, pour le moment, semble plus adaptée, lorsque confronté à la bêtise humaine, à nous faire entrer dans une «médiocratie» que dans un avenir inspirant.












    Envoyer
    Fermer