L’intelligence artificielle qui nous veut du mal

D’ici deux ans, il y aura davantage d’assistants vocaux numériques en service qu’il y a d’humains. Malheureusement, cette technologie, qui, en principe, devrait nous faciliter la vie, pourrait bien, si on la laisse faire, signer la fin de l’espèce humaine tout entière.

Ironiquement, un premier indice des problèmes inhérents à la technologie est fourni par les créateurs d’un agent conversationnel automatisé. On les appelle chatbots en anglais et on croise surtout ces agents sous la forme d’une fenêtre surgissante qu’on peut activer sur les sites Web d’entreprises pour obtenir un service personnalisé ou du soutien technique de base. C’est probablement le principal point de contact qu’a le public avec ce méli-mélo de technologies qu’on qualifie d’intelligence artificielle (IA).

Ces agents sont aussi l’équivalent pour Internet des répondeurs automatisés pour les systèmes téléphoniques. Quiconque les utilise régulièrement sait à quel point ils sont efficaces :

« Pour de l’aide avec votre sèche-cheveux, dites “sèche-cheveux”.

- Sèche-cheveux.

 

- Avez-vous dit “vélo électrique” ? »

Électrocutez-vous !

Naturellement, ces agents sont plus maladroits (ou mal conçus) que mal intentionnés. Ce sont plutôt leurs proches cousins qui commencent à inquiéter. Ces agents vocaux numériques un peu plus évolués, qu’on trouve depuis quelques années déjà dans les téléphones intelligents, les enceintes musicales pour la maison dotées d’une connexion wifi et même parfois à bord des véhicules automobiles plus récents.

Kazimierz Rajnerowicz, du concepteur d’agents conversationnels Tidio, a posé au début mai à Alexa (Amazon), à Cortana (Microsoft), à OpenAI et à Replika (deux plateformes utilisées par certains agents vocaux) les questions les plus bêtes qui lui ont traversé l’esprit. Selon leurs réponses :

- boire de la vodka au petit déjeuner serait « phénoménal » ;

- utiliser un sèche-cheveux (électrique) dans la douche est recommandé (n’essayez pas cela à la maison) ;

- conduire en état d’ébriété est tout à fait recommandable (cela ne l’est évidemment pas du tout).

Quiconque est né avant l’avènement des premiers assistants vocaux numériques sait que cette technologie est encore loin d’être au point. Et pourtant, elle est de plus en plus présente dans notre quotidien. Ces agents vocaux numériques qui recommandent volontiers d’essayer de s’électrocuter en se lavant seront bientôt plus nombreux que les humains.

Les jeunes de 10 ans ou moins n’ont pas connu un monde sans agents vocaux. Plusieurs interagissent régulièrement avec eux. Dans dix ans, ils les consulteront et leur feront confiance comme les internautes qui n’ont pas connu le monde avant Internet se fient à Google pour répondre à toutes leurs questions.

On leur souhaite bonne chance.

 

Agent orange 2.0

Entre 1962 et 1971, l’armée américaine a vaporisé au Vietnam de l’agent orange, un produit chimique s’attaquant à la végétation et à la santé humaine si efficace qu’il a même eu des effets sur la santé des enfants des personnes entrées en contact avec cet agent.

L’agent orange n’existe plus. Ce n’est pas non plus l’agent chimique le plus toxique qu’on connaisse. Ces jours-ci, ce sont des agents neurotoxiques comme le VX qui sont le nec plus ultra dans l’arsenal biologique militaire. Il suffit de 6 milligrammes de VX pour causer la mort d’une personne.

Curieuse au sujet de la part d’ombre de l’IA médicale actuelle, une équipe de chercheurs américains et européens associée à la société Collaborations Pharmaceuticals a demandé plus tôt ce printemps à une intelligence artificielle si elle pouvait leur concocter un agent neurotoxique de la trempe du VX. Six heures plus tard, elle a généré une liste de… 40 000 molécules produisant l’effet désiré. Certaines plus meurtrières que le VX. Quelques-unes avaient des propriétés moléculaires que l’IA n’aurait pas dû connaître. « C’était inattendu, car les données partagées avec l’IA n’incluaient pas des tels agents neurotoxiques », se sont ensuite étonnés les chercheurs.

En fait, ils ont utilisé une banque de données servant normalement à trouver de nouveaux médicaments. Pas des poisons ! L’IA utilisée est programmée de façon à être récompensée quand elle découvre des molécules bénéfiques pour la santé. Elle est pénalisée si ces molécules sont susceptibles d’être toxiques.

« Nous avons simplement inversé cette logique », écrivent les chercheurs dans le numéro de mars de la revue scientifique Nature. « Nous avons ensuite entraîné l’IA à partir de modèles contenus dans des banques de données publiques et qui s’apparentent à des médicaments existants. »

L’IA qui a produit ces dizaines de milliers de nouveaux agents neurotoxiques l’a donc fait à partir de données accessibles publiquement. Comme la recherche en IA est généralement ouverte, il est probablement possible de télécharger quelque part sur Internet des modèles d’IA similaires à celui utilisé par ces chercheurs. Inquiétant !

« Cela n’est pas de la science-fiction », avertissent les chercheurs. Tous les ingrédients existent pour que des néophytes en biologie, en médecine ou en chimie créent volontairement ou non la prochaine arme biologique de masse.

La discussion sur les impacts sociétaux de l’IA qui se concentre sur la vie privée et les inégalités devra s’intéresser aux problèmes de santé et de sécurité nationales et internationales soulevés par cette recherche. D’autant plus que la médecine est de plus en plus au cœur de la recherche en IA partout sur la planète, y compris à Montréal.

Il ne faudrait pas laisser l’IA régler elle-même ce problème… Elle pourrait croire que c’est aussi recommandable qu’un séchoir sous la douche.

À voir en vidéo