L’IA rendra-t-elle les médias plus objectifs?

Deux chercheurs de McGill ont utilisé la plus récente intelligence artificielle pour déterminer comment les médias auraient pu dessiner un portrait différent du fameux coronavirus lors de ses premières apparitions au Canada, à partir du début de 2020.
Photo: Marie-France Coallier archives Le Devoir Deux chercheurs de McGill ont utilisé la plus récente intelligence artificielle pour déterminer comment les médias auraient pu dessiner un portrait différent du fameux coronavirus lors de ses premières apparitions au Canada, à partir du début de 2020.

ChatGPT, Lensa AI, GPT-3… L’intelligence artificielle franchit ces jours-ci une nouvelle frontière qui renforce sa présence dans notre quotidien, mais qui soulève aussi des questions éthiques et sociales essentielles. Par exemple : sera-t-on mieux informé à la suite de l’apparition d’une IA capable d’écrire comme un journaliste ou même comme un chercheur universitaire ?

L’IA rendra les médias plus objectifs ? Retourner aux sources de la crise de la COVID fournit un début de réponse à cette délicate question. Deux chercheurs de McGill ont utilisé la plus récente intelligence artificielle pour déterminer comment les médias auraient pu dessiner un portrait différent du fameux coronavirus lors de ses premières apparitions au Canada, à partir du début de 2020.

Le professeur Andrew Piper, du Département des langues, littératures et cultures de McGill, et son étudiant et adjoint de recherche Sil Hamilton posent sans le savoir une question plus brûlante encore : alors qu’émerge ces jours-ci l’interface ChatGPT, capable de produire de l’information qui confond les experts en éducation, en médecine, en droit et en journalisme, sera-t-on mieux servi en matière d’information neutre et objective par une IA qui s’inspire de dizaines de milliards de textes pour rédiger ses propres articles ?

La chose à retenir, c’est qu’au jeu de l’objectivité, il n’existe pas une seule bonne réponse, explique au Devoir le professeur Andrew Piper. « À coup sûr, GPT n’est pas plus objective que les journalistes. » Sil Hamilton renchérit : « Évidemment que notre IA n’est pas objective. Elle simule une CBC qui serait demeurée coincée en 2019. C’est ça, sa perspective. »

Et comparée à la « vraie » salle de nouvelles de CBC News, la salle simulée par IA propose une couverture davantage axée sur la sévérité de la maladie que sur son impact sur l’humain. « Cela indique que la CBC pourrait avoir changé sa position éditoriale en réaction à la COVID, ce qui devrait nous rappeler que les nouvelles sont produites par des gens — et que les gens sont subjectifs. »

Objectivité, objectivité…

Les deux chercheurs montréalais ont demandé à l’engin de langage informatisé GPT de la société américaine OpenAI de réécrire des textes d’actualité portant sur la COVID-19 et rédigés entre janvier et mai 2020 par les journalistes de CBC News. Ce modèle est entraîné en fonction de plusieurs dizaines de milliards de paramètres pour reproduire le langage humain de la façon la plus convaincante possible.

Les chercheurs de McGill ont utilisé une version appelée GPT-2 antérieure à 2020, et donc à la crise de la COVID.

La disparité entre les 5082 textes rédigés par des humains et ceux produits par l’IA ont permis de tracer les contours d’une impartialité journalistique dictée par l’évolution du contexte à mesure que la pandémie s’installait au pays. « L’IA présente la COVID-19 principalement comme une urgence sanitaire et utilise beaucoup de termes biomédicaux pour décrire la pandémie, alors que la CBC a eu tendance à se focaliser sur l’aspect humain. »

Cette minimisation de l’angle géopolitique dans la couverture de la maladie par le pendant anglais de la société d’État a pu avoir des effets pervers. Elle aurait notamment pu créer l’impression au sein d’une certaine frange du public que le principal média de langue anglaise au pays ne s’attardait pas assez au rôle des gouvernements dans la gestion de la crise. Plusieurs ténors du mouvement complotiste ont régulièrement mis en avant cet argument que les grands médias s’étaient acoquinés avec les autorités pour passer un message faisant leur affaire.

L’IA utilisée par les chercheurs de McGill aurait-elle présenté un portrait différent de la situation, qui aurait apaisé ces esprits contestataires ? Probablement pas. Car, selon les chercheurs, le « choix éditorial » de la CBC a eu l’effet inverse que celui redouté par les principaux promoteurs de théories du complot.

« La CBC a assuré une couverture plus positive que celle à laquelle on aurait pu s’attendre, disent-ils. En faisant preuve d’optimisme, on atténue le sentiment de peur. » En fait, cet optimisme tout relatif apparaît au fil du temps dans la couverture médiatique de la pandémie et pourrait être une réaction à un « effet de ralliement » autour des élites nationales qui survient normalement en situation de crise (guerre, maladie, etc.).

La CBC aurait privilégié son propre traitement de la COVID, indépendant des communications officielles davantage centrées sur l’aspect médical de la crise. Si cela témoigne d’une indépendance éditoriale, il y a quand même la preuve d’une certaine prise de position dans le traitement de l’actualité, conclut la recherche.

Prévoir le prochain ChatGPT

Ce questionnement sur la neutralité de l’information n’est pas près de se terminer. Surtout pas après l’apparition avec grand fracas de ChatGPT, qui produit en quelques secondes à peine des textes qui épousent parfaitement la forme de travaux de recherche universitaires ou d’articles de journaux.

Or, ChatGPT est incapable de garantir la véracité de ses propos. Des internautes malicieux sont nombreux à la piéger avec des questions pas nécessairement sournoises qui lui font affirmer une chose, puis son contraire. En d’autres mots, cette IA est probablement fiable, mais elle peut aussi bien servir les desseins de la désinformation.

« Qu’est-ce que la vérité pour une IA ? demande Sil Hamilton. Elle a beau avoir une connaissance encyclopédique, elle n’a pas encore l’expérience nécessaire pour déterminer le vrai du faux. » La réponse se trouve probablement au-delà de ChatGPT, dans ses prochaines itérations, prédit le chercheur.

Andrew Piper opine. « Il est raisonnable d’imaginer dans un futur proche que ses textes seront aussi exacts que s’ils étaient produits par des humains », dit le professeur, qui ajoute ce conseil : « Il faut s’y préparer. Il y aura des avantages et des risques. »

Une réflexion tout à fait objective, à mûrir collectivement avant que ne survienne une éventuelle nouvelle crise mondiale majeure.

À voir en vidéo