Passer à la version normale du sitePasser à la version large du siteTaille d'écran
  • Facebook
  • Twitter
  • RSS
  • fermer

    Connexion au Devoir.com

    Mot de passe oublié?
    Abonnez-vous!

    Lire dans les pensées

    Des chercheurs ont décodé les mots entendus et les images vues par une personne à partir de son activité cérébrale

    11 février 2012 | Pauline Gravel | Science et technologie
    Photo : Newscom
    Bien que la perspective de décrypter les images et les mots enregistrés par le cerveau donne froid dans le dos, elle pourrait aboutir à des applications très positives: les chercheurs espèrent ainsi être en mesure de redonner la parole à des personnes victimes d'un accident cérébral vasculaire ou atteintes du syndrome d'enfermement, ou encore à des individus dans le coma qui ont toujours conscience de leur environnement
    D'ici quelques années, on pourra probablement lire dans les pensées d'une personne en décodant l'activité de son cerveau. Un premier pas vient du moins d'être franchi dans cette direction, alors que des scientifiques affirment avoir réussi à reconstituer les mots et les images qu'un individu a entendus ou vus en analysant l'activité cérébrale engendrée par ces stimuli.

    Dans un article scientifique publié la semaine dernière par la revue PLoS Biology, des chercheurs de l'Université de Californie à Berkeley expliquent comment ils sont parvenus à identifier et à reproduire les mots qu'une personne venait d'entendre en décodant l'activité nerveuse de son cerveau à l'aide d'un programme informatique doté d'un algorithme de décodage.

    Maintenant qu'ils savent décrypter les ondes cérébrales générées par l'écoute de mots du langage, ces mêmes scientifiques caressent désormais le projet de déchiffrer l'activité cérébrale qui est induite par le simple fait de penser à des mots, ou à des phrases particulières... ce qui en vérité leur permettrait de lire dans les pensées de la personne.

    Bien que cette perspective puisse donner froid dans le dos, elle pourrait aboutir à des applications très positives, font valoir les chercheurs, qui espèrent ainsi être en mesure de redonner la parole à des personnes incapables de s'exprimer verbalement à la suite d'un accident cérébral vasculaire ou privées de toute forme de communication parce qu'elles sont atteintes du syndrome d'enfermement (locked-in-syndrome), ou encore qui se trouvent dans le coma tout en ayant toujours conscience de leur environnement.

    «Ce serait extraordinaire de pouvoir décoder les intentions de ces individus», affirme le neuroscientifique Robert Zatorre, de l'Institut neurologique de Montréal (INM), qui connaît bien l'article paru dans la revue PLoS Biology pour en avoir supervisé la révision par des pairs.

    Le premier auteur de l'article, Brian Pasley, a profité du fait qu'un neurochirurgien enregistrait l'activité cérébrale d'une quinzaine de ses patients atteints d'une forme sévère d'épilepsie dans le but de localiser précisément la zone qui induisait leurs crises.

    Ces patients étaient donc en observation avant de subir une intervention chirurgicale visant à exciser cette zone. Un réseau d'électrodes était disposé à la surface de leur cerveau mis à nu, en l'occurrence sur le lobe temporal de leur cortex cérébral, une région impliquée dans l'audition et le traitement du langage.

    Ces électrodes ont donc permis d'enregistrer de très près les signaux électriques générés par les neurones du cortex auditif pendant qu'on faisait entendre aux patients des séries de mots isolés, tels que deep, jazz, cause; de faux mots, tels que fook, ors, nim; et de phrases.

    Deux modèles mathématiques

    Le chercheur qui travaille dans le laboratoire du professeur Robert Knight, de l'Institut de neuroscience Helen Wills à Berkeley, a ensuite fait appel à deux modèles mathématiques intégrant les connaissances que nous détenons actuellement sur la façon dont le cortex auditif encode certaines caractéristiques des sons du langage.

    Ces modèles ont ensuite été entraînés par la méthode d'apprentissage-machine (machine-learning), qui a consisté à présenter aux modèles chaque mot (sous la forme de son spectrogramme qui est l'évolution du contenu fréquentiel du son en fonction du temps) qu'on avait fait entendre aux participants, accompagné de l'enregistrement de l'activité cérébrale qui y correspondait.

    Les modèles ont alors appris essentiellement à associer chaque son à une activité cérébrale particulière. Un entraînement effectué avec de nombreux mots différents a ainsi permis aux modèles d'évoluer et de se raffiner, explique M. Zatorre.

    Une fois l'entraînement terminé, on a éprouvé les modèles en leur demandant de décoder l'activité cérébrale qui avait été induite par l'écoute de nouveaux mots, qui n'avaient jamais été présentés au modèle. «Si, après un entraînement, le modèle n'arrive pas à généraliser de nouveaux mots, il n'a aucun intérêt», indique M. Zatorre.

    Les modèles ont relativement bien réussi à décoder et à reconstituer la structure des mots.

    Modèle de décodage (source PLoS Biology)


    «Le décodage ne nous apparaît peut-être pas très bon, mais il faut se rappeler que nous entendons le cerveau qui parle, ce qui n'est pas rien. C'est même extraordinaire!», commente M. Zatorre, tout en faisant aussi remarquer que les enregistrements cérébraux qui ont servi au décodage provenaient d'une quinzaine d'électrodes à peine, «alors que, dans le cerveau, des centaines de milliers de neurones s'activent en même temps».

    «De plus, poursuit le neuroscientifique, les électrodes n'étaient disposées qu'à la surface du cerveau et n'enregistraient donc pas ce qui se passait plus en profondeur. Elles étaient séparées par un espace de quelques millimètres, lequel peut contenir des milliers de neurones, et elles avaient été installées par le neurochirurgien aux endroits requis pour le traitement. Sûrement que des sites d'enregistrement plus nombreux auraient accru la performance du modèle.»

    L'équipe de Berkeley désire maintenant répéter l'expérience, mais cette fois en tentant de décoder l'activité cérébrale générée lorsque la personne pense volontairement à des mots. Pour sa part, l'équipe de Robert Zatorre a déjà étudié l'«imagerie auditive» — le fait de penser à des sons (des mots ou un air musical) — à l'aide d'un appareil d'imagerie par résonance magnétique fonctionnelle (IRMf) qui enregistre les variations du flux sanguin dans les différentes régions du cerveau.

    Cette méthode d'imagerie permet de déterminer les zones qui sont activées lorsque la personne effectue une tâche particulière puisque, dans les zones où les neurones sont stimulés, s'observent un accroissement de la consommation en oxygène et une augmentation du débit sanguin.

    Les régions du cortex auditif

    Dans le laboratoire de M. Zatorre, qui est codirecteur du laboratoire international BRAMS (Brain, Music and Sound Research), on a demandé à des individus de penser à un air musical tandis qu'on enregistrait l'activité de leur cerveau dans un appareil d'IRMf. Il est alors apparu que plusieurs zones du cortex auditif s'activaient pendant que les participants imaginaient un air musical de leur choix.

    Les régions du cortex auditif qui s'activaient n'étaient toutefois pas exactement les mêmes que celles qui étaient sollicitées quand une personne écoutait et entendait cet air musical. «Les régions du cortex auditif activées lors de l'imagerie ne sont qu'un sous-ensemble des régions activées par le vrai son. En revanche, il y a des régions de la zone frontale qui ne sont activées que lors de l'imagerie. Il s'agit probablement de mécanismes de rappel qui sont nécessaires pour l'imagerie», précise M. Zatorre.

    Actuellement, son équipe cherche à comprendre comment «la relation harmonique entre les notes d'un accord majeur et mineur est encodée par le cerveau».

    Pour ce faire, on a enregistré par IRMf l'activité du cerveau d'auditeurs auxquels on a fait entendre des accords majeurs et mineurs. On a ensuite introduit ces données dans un modèle mathématique afin de l'entraîner par la méthode d'apprentissage-machine à distinguer l'encodage cérébral des accords majeurs de celui des accords mineurs, en espérant qu'il arrive à reconnaître les accords majeurs des accords mineurs en analysant le patron d'activité cérébrale.

    «Les résultats préliminaires montrent que le modèle y arrive dans 70 % des cas, ce qui n'est pas mal du tout», affirme M. Zatorre, avant d'ajouter que ces expériences sur les accords permettent aussi de mettre en lumière le niveau de formation musicale d'une personne. «L'habileté du cerveau à décoder ces sons-là nous permet d'évaluer le niveau de connaissances musicales d'une personne. Selon son niveau de formation musicale, une personne saura plus ou moins bien reconnaître qu'un accord est mineur ou majeur. Tandis que dans la parole, si vous parlez la langue, tout est clair, si vous ne la parlez pas, vous ne pouvez distinguer aucun son», explique M. Zatorre.

    Des dangers d'espionnage ?

    L'équipe de Jack Gallant, de l'Université de Californie à Berkeley, a pour sa part réussi à reconstituer les images que venaient de voir des personnes, en analysant l'activité cérébrale engendrée par ce visionnement, selon un article publié le 27 septembre dernier dans la revue Current Biology.

    Dans un premier temps, les chercheurs ont enregistré l'activité cérébrale de trois sujets (qui en l'occurrence étaient des membres de l'équipe de recherche) tandis qu'ils regardaient les bandes-annonces de films américains à l'intérieur d'un appareil d'IRMf. Ces heures d'enregistrements cérébraux ainsi que les séquences visuelles auxquelles ils correspondaient ont ensuite été introduites dans un programme informatique mettant en oeuvre un modèle mathématique intégrant nos connaissances actuelles sur le fonctionnement du système visuel. Le logiciel a ainsi appris comment le cortex visuel réagissait aux scènes visuelles qui lui étaient présentées.

    Une fois cet entraînement terminé, les chercheurs ont projeté de nouvelles séquences vidéo aux participants, que le logiciel — doté d'un algorithme de décodage — s'est appliqué à recréer en décortiquant l'activité cérébrale qui avait été générée lors du visionnement de ces films.

    Bien que passablement floues, les reproductions produites par le logiciel permettent néanmoins de reconnaître les silhouettes qui sont en mouvement dans les films originaux.

    Forte de cette réalisation scientifiquement impressionnante, l'équipe de Jack Gallant ne doute pas de réussir d'ici peu à reconstituer notre cinéma intérieur, voire nos rêves et nos fantasmes!

    Mais ceux qui s'inquiètent du fait que cette technologie permette d'espionner nos pensées les plus intimes peuvent se rassurer. Étant donné sa lourdeur (des heures passées dans un scanneur ou des électrodes installées sous les méninges), il faudra nécessairement donner notre consentement à ceux qui voudront connaître le fond de notre pensée.


    Le cortex auditif qui apparaît ici en couleurs s’active, même en l’absence de sons, pendant que la personne pense à un air musical.?<br />
     
     
    Édition abonné
    La version longue de certains articles (environ 1 article sur 5) est réservée aux abonnés du Devoir. Ils sont signalés par le symbole suivant :
     
     












    CAPTCHA Image Générer un nouveau code

    Envoyer
    Fermer
    Blogues
    Articles les plus : Commentés|Aimés
    Abonnez-vous pour recevoir nos Infolettres par courriel