Les robots rendent les humains plus intelligents

Il semble entendu que l’évolution de l’intelligence artificielle (IA) s’oppose à celle de l’intelligence humaine. Plus les robots seront sophistiqués, craint-on, plus les humains deviendront paresseux, voire idiots. Or, c’est complètement faux.

Un groupe de chercheurs affilié à l’Université de Californie à Santa Barbara a publié les résultats de leur recherche sous la forme d’un rapport dont le titre dit tout : L’intelligence artificielle surhumaine peut améliorer la prise de décisions des humains en stimulant l’innovation.

Les chercheurs ont examiné les changements dans la façon dont se sont comportés, entre 1950 et 2021, des joueurs de go. Ils ont porté une attention toute particulière à l’évolution de leur façon de jouer après l’apparition d’une IA capable de rivaliser avec les plus grands joueurs de ce populaire jeu d’origine chinoise. Ils citent en exemple AlphaGo, une IA développée dans les laboratoires d’une division de Google qui, à la fin de la décennie passée, s’est imposée comme une des meilleures joueuses de go sur la planète.

Ils ont analysé pas moins de 58 milliards de gestes contre-intuitifs faits par l’IA dans ses propres parties l’opposant à un humain, puis ont comparé la réaction de leur adversaire en chair et en os avec les gestes faits dans les sept décennies précédentes par d’autres joueurs victorieux.

Leur conclusion est sans équivoque. « Nous avons examiné la stratégie des joueurs humains au fil du temps et découvert que les décisions innovatrices (c’est-à-dire des gestes qui n’ont auparavant jamais été observés) survenaient plus fréquemment et étaient associées à une meilleure prise de décision après l’émergence d’une IA aux capacités surhumaines. »

Leur étude continue d’expliquer ensuite en plus de détails que les joueurs qui font face à une opposition hautement créative deviennent à leur tour plus créatifs, qu’ils abandonnent des modèles de jeu plus traditionnels probablement appris d’autres joueurs avant eux et que cela les a menés à explorer de nouvelles façons de jouer. Cela a eu pour effet de les forcer à prendre de meilleures décisions, un défi qu’ils ont apparemment relevé avec une régularité permettant de croire qu’ils sont devenus de meilleurs joueurs.

Comme on dit dans certaines campagnes, on n’aiguise pas un couteau avec du beurre…

Jeux de société

 

Les chercheurs de l’Université de Californie à Santa Barbara ont publié leur étude en décembre dernier. C’est un hasard, mais cela s’est produit quelques jours à peine après la mise en ligne de ChatGPT, probablement l’incarnation la plus concrète du potentiel transformateur des nouvelles technologies numériques.

L’étude n’a manifestement pas fait autant de bruit que ChatGPT, qui a rapidement fait réagir des experts associés à toutes les sphères de la société de l’information dans laquelle la plupart d’entre nous vivent : éducation, travail, loisirs…

Initialement, cette IA a surtout fait peur. Elle est capable de comprendre et de produire du texte dans un langage aussi naturel que celui que nous utilisons quotidiennement dans nos échanges avec d’autres humains. Elle peut reproduire le style dans lequel nous communiquons, qu’il soit soutenu, comme c’est requis pour un travail de recherche scolaire, ou qu’il soit plus familier, dans le cadre d’une communication par courriel ou sur les réseaux sociaux.

Elle peut aussi être leurrée pour aller au-delà de ses propres limites. Dans le cas de ChatGPT, la société OpenAI qui l’a créée a voulu éviter les dérapages, volontaires ou non. Évidemment, l’invitation était lancée pour trouver des moyens de l’utiliser malgré elle, à mauvais escient. Il a suffi de quelques heures pour que l’on découvre comment il était possible de créer, grâce à cet outil et en quelques secondes, des logiciels et des messages malveillants, ou plein d’autres applications néfastes.

Sans parler de l’aisance avec laquelle ChatGPT peut rédiger un travail scolaire de bonne qualité, qui fera amplement l’affaire d’un étudiant un peu paresseux.

Manifestement, le côté obscur de ces technologies demande de créer des garde-fous pour éviter de tomber dans le piège.

 

D’enseignant à philosophe

Comme les joueurs de go, les professionnels qui craignent l’impact de ces IA de nouvelle génération sur leur quotidien devront élever leur jeu d’un cran et trouver des moyens, jusqu’ici inédits ou hors du commun, pour accomplir leurs tâches.

Par exemple, en informatique, avec des outils comme ChatGPT — mais pas seulement celui-là —, il est possible pour un programmeur d’automatiser la partie plus manuelle de son travail : l’écriture du code qui donne vie aux applications et aux logiciels. Ce type d’emploi est-il menacé ? Pas si on passe du stade de programmeur à celui d’architecte informatique : plutôt que de produire des « briques et du mortier », ils peuvent consacrer plus de temps à imaginer la forme finale de leur construction.

Plusieurs enseignants sont, par ailleurs, à la recherche d’outils qui leur permettront de détecter si les travaux remis par leurs élèves ont été rédigés à leur place par une IA. Peut-être que la solution est d’aborder l’enseignement différemment. Par exemple, répondre une fois pour toutes à la question que se posent au moins une fois dans leur jeune vie à peu près tous les élèves : à quoi ça sert d’apprendre « ça » ?

La réponse est assez simple : ça nous rend meilleurs.

À voir en vidéo