L’IA et l’école

GPT-4, la plus récente et ô combien spectaculaire version du moteur de langage d’OpenAI, suscite en ce moment des débats passionnés.

En voici trois exemples.

On s’inquiète, et avec raison, de la propagation de faussetés — ce que GPT-4 produirait entre 20 et 40 % du temps ; on se demande quels effets l’intelligence artificielle (IA) aura sur l’emploi, redoutant qu’ils soient dramatiques ; et on s’inquiète de la possibilité que la démocratie — ainsi que la libre circulation des idées et la libre discussion, qui en sont des composantes nécessaires — soit sérieusement mise en péril si ces outils tombent entre de mauvaises mains. Pour citer Yoshua Bengio, « nous créons des outils puissants, qui pourraient tomber dans les mains de ceux qui ont les moyens de se les offrir, et qui pourraient les utiliser pour mieux contrôler les populations ». Quand on sait que les GAFAM accumulent des données sur nous depuis des années et qu’on connaît les débats en cours sur TikTok, il y a en effet de quoi être inquiet.

Mais restons en éducation.

 

Il n’est évidemment pas possible de prédire ce que l’IA va à long terme avoir comme conséquences sur ce terrain. Mais j’avance l’idée qu’il est d’ores et déjà souhaitable de réfléchir à ce qu’elle implique pour certaines catégories, pour certains concepts qui sont cruciaux en éducation et auxquels on ne pense pas assez souvent. Le résultat peut-être surprenant. Jugez-en.

Savoir et comprendre à l’heure de l’IA

Une des choses les plus fascinantes que fait la philosophie est de nous demander de définir des concepts qu’on utilise couramment et de nous amener à convenir qu’on ne savait pas vraiment ce qu’ils signifiaient. La leçon remonte à Socrate.

Prenez le concept du savoir. On l’utilise sans cesse, mais que signifie-t-il vraiment ? Platon, très brillamment, nous rappelle que trois conditions doivent être satisfaites pour qu’on puisse dire qu’on sait. Il faut d’abord qu’on pense comme vraie une certaine idée ; ensuite que cette idée soit vraie ; enfin, qu’on la pense pour de bonnes raisons. Le savoir, selon l’expression consacrée, est donc l’opinion vraie (correctement) justifiée.

Je vous laisse y penser, mais il est clair que cela a des répercussions importantes en éducation. Si l’élève sait quelque chose, il doit le penser, il faut que ce soit vrai, et il doit avoir de bonnes raisons de le penser. Il ne peut donc pas simplement redire quelque chose (pris sur GPT-4, disons) et, ce faisant, le savoir. On le saura en lui demandant d’expliquer pourquoi il tient telle chose pour vraie. « GPT-4 me l’a dit » n’est pas une bonne réponse.

Mais l’IA, je pense, nous demande d’aller plus loin. Le philosophe Luciano Floridi a justement formulé à ce sujet des idées qui me semblent justes et lourdes d’implications pratiques en éducation.

Il suggère par exemple de distinguer entre être informé et savoir. Il arrive que ce qu’on apprend de GPT-4 nous informe. Mais « savoir » est autre chose qu’avoir une information à laquelle on ne peut rien ajouter. Un savoir est en lien avec d’autres idées, d’autres informations, et engendre des tas de questions auxquelles, soit on peut répondre, soit on ne le peut pas — et en ce cas il faut continuer de chercher à savoir.

Ce sont ces réseaux qui font le savoir et qui transforment des informations en du savoir qu’on comprend. Il s’ensuit que l’élève qui sait n’est pas simplement informé. Et qu’on le découvrira en soulevant toutes ces questions que le savoir suggère. Les bonnes raisons de Platon prennent ici un sens particulier que cette infinie masse d’informations que l’IA rend disponibles nous contraint d’adopter.

Une autre distinction proposée par Floridi me semble aussi intéressante pour les enseignants qui doivent s’adapter à l’ère de l’IA qui s’amorce. Il propose en effet de distinguer entre l’ignorance et l’insipience.

L’insipience, c’est quand on ne connaît pas la réponse à une question, mais que notre réseau autour d’elle est riche : on sait ce qu’elle signifie, qu’elle a une réponse, et ce qui fera que celle-ci sera plausible ou non. Par exemple, si, ne connaissant pas la réponse, je demande à GPT-4 : « Quelle est la ville la plus peuplée au monde ? » je sais que cela dépendra notamment de la définition du mot « ville ». Et que la réponse m’amènera à (me) poser d’autres questions.

L’ignorance serait de ne pas savoir ce que sont les villes et qu’elles ont des populations différentes. Ce qui indique qu’on peut devenir moins ignorant grâce à l’IA, mais à condition d’être rempli d’insipience.

Est-ce que cela vous inspire des pratiques pédagogiques en lien avec l’IA ? Des manières de la faire utiliser aux élèves ? D’éviter des dérapages ou des dangers ? De vérifier si on l’utilise sagement ? Des idées pour former à la pensée critique numérique ?

Parlez-m’en : je suis très intéressé par vos idées à ce sujet. Vous pouvez m’écrire à l’adresse baillargeon.normand@uqam.ca

Une lecture

Luciano Floridi, Philosophy of Information, Oxford, 2011. Certaines de ses idées sont fort bien présentées par Marco Nuzzaco dans le plus récent numéro de la revue Philosophy Now (février/mars 2023), qui m’a été très utile pour cette chronique.



À voir en vidéo