Les hallucinations d’une intelligence artificielle
La société OpenAI vient de publier la nouvelle version du moteur de compréhension et de génération du langage naturel qui anime ChatGPT. Si l’interface a fait beaucoup parler d’elle depuis son lancement l’automne dernier, sa nouvelle version risque d’aller plus loin encore : elle vous fera halluciner.
Littéralement.
À terme, espérons qu’OpenAI embauchera un spécialiste du marketing qui trouvera des noms plus évocateurs pour ses créations logicielles que GPT-4 et ChatGPT. Entre-temps, rappelons seulement que GPT-4 est en quelque sorte la quatrième génération du moteur de langage mis au point par OpenAI depuis sa création en 2015. ChatGPT est l’interface Web mise à la disposition des programmeurs et des informaticiens désireux d’intégrer cet outil à leurs propres logiciels et applications.
Ils sont nombreux, et probablement plus près de vous que vous le croyez. Microsoft l’utilise déjà dans son moteur de recherche Bing. Salesforce vient de l’ajouter à son logiciel de clavardage pour entreprises Slack. Le réseau social Snapchat l’a aussi récupéré pour aider ses utilisateurs à produire des publications sans trop se forcer.
Un roman dans chaque réponse
Les clients d’OpenAI qui paient pour accéder à ChatGPT ont droit à sa version la plus récente, qui repose sur GPT-4. Ceux qui y accèdent gratuitement ont droit à une version antérieure, appelée « GPT-3.5 turbo ». Elle fournit des réponses moins précises pour différentes raisons : parce que son raisonnement n’est pas au point, parce que ses sources d’information sont limitées et parce que sa maîtrise de la langue n’est pas aussi avancée que celle de sa version la plus récente.
Si on se fie uniquement aux limites techniques de GPT-4, on comprend que cette nouvelle application d’intelligence artificielle (IA) est environ dix fois plus performante que sa prédécesseure. Cela lui permet de gérer des messages d’une longueur maximale de 25 000 mots, plutôt que de 3000 mots, comme c’était le cas avant.
Et 3000 mots, c’est environ la longueur d’un dossier d’enquête qu’un journal comme Le Devoir va publier sur plus d’une page ou sur quelques éditions quotidiennes ; 25 000 mots, c’est la moitié d’un roman.
Davantage de muscle, mais…
La nouvelle IA d’OpenAI est en tous points plus costaude qu’avant. Elle maîtrise une quinzaine de langues avec un naturel désarmant. Y compris le français. D’ailleurs, ça fait réfléchir : si un logiciel créé aux États-Unis est aussi bon en français, en espagnol ou autre, il n’existe aucune excuse autre que la plus pure des paresses pour que des sociétés comme Air Canada ou le Canadien National ne puissent atteindre un niveau similaire de respect des autres langues que l’anglais dans leurs communications courantes.
Elle peut composer des partitions musicales aussi bien que programmer des sites Web entiers. OpenAI dit par ailleurs que son IA obtient de meilleurs résultats à des tests de QI ou à certains examens de calibre universitaire que la grande majorité des étudiants en chair et en os.
OpenAI ajoute dans la foulée que GPT-4 produit des réponses plus factuelles aux questions qu’on lui pose dans environ 60 % des cas, par rapport à la version précédente. Une cinquantaine d’experts ont été embauchés pour l’aider à réduire de 80 % les risques que cette IA soit utilisée à des fins malveillantes ou malhonnêtes.
C’est un beau progrès. Sur papier. En réalité, on ne sait pas à quel point les 20 % à 40 % de cas où les réponses fournies peuvent être erronées ou mal intentionnées représentent un moins grand risque pour ses utilisateurs. C’est néanmoins une marge d’erreur énorme, qui laisse croire que quiconque l’utilise obtiendra tôt ou tard de la part de cette IA, volontairement ou non, une information trompeuse ou dangereuse.
Ce que cette personne fera de l’information ainsi acquise déterminera la gravité de la situation. Recommander la mauvaise sorte de chocolat pour une recette de gâteau forêt-noire ne gâchera pas une fête d’anniversaire. Suggérer aux gens qui se remettent tout juste d’une opération à la hanche de recommencer à courir aussi tôt que possible est peut-être un peu audacieux…
Hallucinations collectives
Chez OpenAI, on qualifie les fausses informations fournies par l’IA d’« hallucinations ». L’IA imagine en quelque sorte un monde dans lequel ce qu’elle dit est applicable même quand c’est faux. Le glissement de sens dans cette perspective est intéressant : un peu plus et on dira qu’il doit exister des mondes parallèles où les erreurs factuelles produites par le moteur de langage GPT-4 sont au contraire tout à fait exactes.
Comme le faisaient remarquer les premières critiques de la technologie d’OpenAI, l’ampleur de ces hallucinations dépendra de l’utilisation que feront les entreprises et le public d’outils comme ChatGPT.
À Microsoft, Salesforce et Snap, il faut ajouter Google, Facebook, Amazon et d’autres entreprises qui s’empressent de répliquer à ChatGPT avec leur propre outil de génération du langage. La raison est simple : des centaines d’entreprises ont hâte de l’utiliser pour contrer le manque de travailleurs.
Naturellement, si cela se produit, il faudra redoubler de vigilance sur la véracité des informations produites par l’intelligence artificielle. Sinon, nous risquons de souffrir d’hallucinations collectives…