Une bonne combinaison?

Catherine Couturier Collaboration spéciale
L’intelligence artificielle pourrait aider à prédire les catastrophes naturelles comme le tremblement de terre d’Haïti en 2010, et à cartographier les routes et les territoires pour mieux acheminer l’aide.
Photo: Eitan Abramovich Agence France-Presse L’intelligence artificielle pourrait aider à prédire les catastrophes naturelles comme le tremblement de terre d’Haïti en 2010, et à cartographier les routes et les territoires pour mieux acheminer l’aide.

Ce texte fait partie du cahier spécial Intelligence artificielle

« Les travailleurs humanitaires professionnels ont souvent une vision manichéenne de l’intégration des technologies à leur travail : ils sont soit technopessimistes, soit au contraire très optimistes », souligne Jean-François Dubé, ancien logisticien pour Médecins sans frontières (MSF). Quels sont les enjeux, les possibilités et les limites de l’intelligence artificielle dans l’humanitaire ?

Les travailleurs humanitaires ayant une approche classique de terrain commencent tranquillement à reconnaître les possibilités qu’offrent les technologies numériques, parmi lesquelleson inclut l’utilisation de l’intelligence artificielle (IA), explique M. Dubé, qui vient de déposer un mémoire de maîtrise en philosophie autour de ces questions à l’Université de Sherbrooke. C’est ainsi qu’après le tremblement de terre d’Haïti en 2010 certains travailleurs humanitaires ont entrevu les possibilités des médias sociaux étant donné que le réseau de communication traditionnel s’était effondré.

Mais récolter des informations sur les médias sociaux est une tâche colossale pour une équipe. Avec sa capacité à analyser une quantité massive de données, l’IA pourrait faire le tri de ce qui s’y passe, afin de cartographier les besoins des gens. Elle pourrait aussi aider à prédire les catastrophes naturelles etprévenir les habitants, suivre les mouvements des réfugiés, et cartographier les routes et les territoirespour mieux acheminer l’aide. Les algorithmes pourraient par ailleurs permettre aux agriculteurs locaux d’améliorer leurs rendements dans un environnement aride. Des chatbots permettraient enfin d’améliorer l’accès à des conseils de professionnels de la santé, en utilisant le traitement automatique du langage naturel pour transcrire les consultations, résumer les dossiers et converser avec les patients.

Promesses à réaliser

Mais où en est-on réellement sur le terrain ? « On a très peu de données sur ce qui est effectivement utilisé et sur les répercussions sociales », remarque Céline Castets-Renard, professeure en droit civil à l’Université d’Ottawa. En plus de la relative nouveauté de l’IA dans ce domaine, des experts mettent en garde contre l’IA washing : l’intelligence artificielle étant dans l’air du temps, il peut être tentant de dire qu’on l’utilise, alors que c’est faux, ou encore d’implanter des solutions complexes ayant recours à l’IA, alors qu’un moyen plus simple aurait tout autant fonctionné. « Il n’est pas toujours clair de savoir en quoi l’utilisation de l’IA serait une plus-value », ajoute Mme Castets-Renard, qui est aussi membre de l’Observatoire international sur les impacts sociétaux de l’IA et du numérique. Les solutions d’IA doivent aussi faire partie d’une chaîne décisionnelle, qui doit prévoir des façons d’implanter concrètement ces solutions.

L’intégration de l’IA au travail des organismes humanitaires soulève plusieurs enjeux. « L’IA va inviter à collecter des données, notamment personnelles, dans des contextes de famine, d’épidémie et de guerre. Or, même en situation dramatique, les gens conservent leur droit fondamental à la vie privée », explique Mme Castets-Renard. Dans des situations de conflits ou dans des dictatures, comment s’assurer que ces données ne seront pas utilisées à mauvais escient ? « Il faut se méfier de la tentation de surveiller la population par des systèmes d’IA », croit la chercheuse.

Jean-François Dubé a pour sa part étudié la question de la qualité des données récoltées dans les approches classiques par rapport aux méthodes numériques. Il constate des angles morts : par exemple, une IA qui tirerait ses données des médias sociaux tiendrait uniquement compte des gens qui savent lire et écrire, et qui ont accès à ces technologies. Certains paramètres utilisés par l’IA sont par ailleurs souvent inconnus, ce qui invisibilise les biais possibles. M. Dubé donne l’exemple d’une application IA qui utilise des données « non traditionnelles » pour établir une cote de crédit : « Mais qu’est-ce que ça veut dire exactement ? Comment sont obtenues les données ? Que mesure-t-on ? Comment les chiffres obtenus représentent-ils une mesure valable de la confiance à accorder à quelqu’un pour un prêt ? »

Encadrement

Le développement de telles technologies demande également des moyens importants, dont ne disposent pas toujours les organismes humanitaires. Entrent alors en jeu les grandes compagnies de la Silicon Valley : « Le travail humanitaire est vu comme noble, et certaines compagnies veulent s’en approcher, mais cela pose des questions éthiques »,souligne M. Dubé. Les entreprises privées pourraient aussi être tentées d’entraîner leurs machines sur ces données, sans rendre de comptes. « À l’inverse, des systèmes entraînés sur des données ne concernant pas cette population risquent de ne pas être efficaces », précise Mme Castets-Renard. Elle souligne aussi l’importance de mieux contrôler ce que font les entreprises, avec un système de certification et d’audit.

Malgré tout, l’IA recèle de nombreuses possibilités pour aider les populations. « Ce n’est pas une panacée. Mais il serait irresponsable d’abandonner complètement la technologie sous prétexte qu’il y a des risques », conclut Jean-François Dubé.