Les illusionnistes de la musique

Pendant l’écoute, on pourrait par exemple ne pas vouloir entendre le chanteur pour chanter à sa place, comme dans le karaoké. On pourrait vouloir supprimer un instrument ou en faire ressortir un autre pour mieux l’entendre, voire le déplacer dans
Photo: Pendant l’écoute, on pourrait par exemple ne pas vouloir entendre le chanteur pour chanter à sa place, comme dans le karaoké. On pourrait vouloir supprimer un instrument ou en faire ressortir un autre pour mieux l’entendre, voire le déplacer dans

Ils reproduisent des sons, en créent, en transforment, nous introduisent dans une salle de concert virtuelle. De véritables prestidigitateurs et illusionnistes de la musique sont venus révéler et partager leurs découvertes scientifiques à l’université McGill cette semaine dans le cadre du congrès international DAFX (Digital Audio Effects). Issus des quatre coins de la planète, ils sont mathématiciens, physiciens, ingénieurs, psychoacousticiens, tous musiciens dans l’âme, sinon en pratique.

Sylvain Marchand, professeur au Laboratoire bordelais de recherche en informatique (LABRI), à Bordeaux, en France, veut permettre une écoute active des CD et des fichiers MP3 qui nous sont offerts sur le marché. «La façon habituelle d’écouter ces fichiers compressés, ou du moins ce que veulent les gens qui les produisent, les diffusent et les vendent, est une écoute passive. On doit s’asseoir dans son canapé et écouter passivement. Les seules choses qui nous sont permises, c’est changer le volume et passer à la piste suivante. C’est à peu près tout! Modifier l’oeuvre nous est interdit», a affirmé le chercheur.

Pendant l’écoute, on pourrait par exemple ne pas vouloir entendre le chanteur pour chanter à sa place, comme dans le karaoké. On pourrait vouloir supprimer un instrument ou en faire ressortir un autre pour mieux l’entendre, voire le déplacer dans l’espace. On pourrait souhaiter ralentir ou accélérer le rythme d’une chanson. On pourrait même avoir envie de modifier la voix du chanteur, voire transformer un instrument.

Mais pour parvenir à réaliser ces tours de passe-passe, il faut d’abord arriver à séparer et isoler du mélange, soit du fichier mixé, les diverses entités musicales, c’est-à-dire tous les éléments sonores entendus comme étant distincts des autres, afin de pouvoir ultérieurement les manipuler et les transformer. «Du coup, nous ne sommes plus de simples auditeurs passifs. Nous devenons chef d’orchestre ou un disque-jockey qui refait des versions en direct», a expliqué Sylvain Marchand.

Pour rendre possibles de telles manipulations, les chercheurs font toutefois face à une grande difficulté technique car les fichiers musicaux de départ ont avant tout été conçus pour être simplement écoutés et non modifiés, et ce, «probablement pour des raisons commerciales». «Si on permettait toutes les manipulations, on pourrait éliminer toutes les entités musicales d’une pièce orchestrale, à l’exception du piano par exemple, qu’on pourrait ensuite copier pour ses propres compositions. On violerait ainsi les droits d’auteur», a souligné le scientifique.

Le matériau de base sur lequel travaillent les chercheurs est un enregistrement stéréo qui se présente sous la forme d’une multitude d’ondes sonores qui se propagent dans l’air et qu’ils décrivent mathématiquement sous la forme d’un spectre sonore, celui-ci représentant la longueur d’onde, la fréquence et l’énergie de toutes les ondes composant le son musical.

Les scientifiques cherchent ensuite à déterminer les fréquences sonores perçues par l’oreille droite et l’oreille gauche et mesurent l’intensité avec laquelle elles parviennent à chaque oreille. Une fréquence sonore particulière peut atteindre l’oreille droite avec plus d’énergie — et, de ce fait, sonner plus fort — que celle qui parvient à l’oreille gauche. Cette même onde peut rejoindre l’oreille droite un peu avant l’oreille gauche. Or, avec les différences de temps d’arrivée et de niveaux d’intensité, les chercheurs parviennent ainsi à retrouver d’où provient chaque fréquence du spectre, chaque source sonore. Ils isolent ensuite celles qui possèdent le plus d’énergie. Une fois isolées, ces entités sonores peuvent être écoutées séparément et transformées individuellement. On pourra ainsi les déplacer dans l’espace et changer leur intensité (fortissimo ou pianissimo), la hauteur du son (les notes de la gamme), la durée des sons (accélération, ralentissement) et le timbre, qui est la couleur caractéristique du son d’un instrument.
Une fois qu’on aura effectué nos modifications, on retransformera le spectre sonore en onde sonore qu’on enverra dans deux haut-parleurs ou oreillettes d’un casque d’écoute. «À terme, l’auditeur aura simplement l’impression que le pianiste a joué ailleurs et d’une autre façon alors qu’il n’a joué qu’une seule et même fois. Et cette variation dans l’interprétation du pianiste aura été décidée et produite par l’auditeur», a souligné Sylvain Marchand.

«Mais les applications que nous voulons développer et qui nous permettront de modifier la musique risquent d’aller contre la loi parce que nos techniques permettront de contourner les protections mises au point par l’industrie», a finalement fait remarquer en rigolant le chercheur.

Le grand gourou de la conférence, le chercheur Julius O. Smith III, du Center for Computer Research in Music and Acoustics, à l’université Stanford, en Californie, lui-même guitariste, est à l’origine de nombreuses techniques de représentation, d’analyse et de modélisation des sons musicaux avec lesquelles les chercheurs du domaine travaillent.

Il a notamment développé différents modèles de synthèse des sons musicaux. Il s’agit d’une part de modèles mathématiques qui simulent les différentes caractéristiques du son émis par un instrument, qu’on appelle modèles spectraux parce qu’ils décrivent et permettent d’intervenir sur les divers éléments du spectre sonore. D’autre part, il tente de modéliser les caractéristiques physiques de l’instrument de musique qu’il désire simuler ainsi que les phénomènes mécaniques et acoustiques qui interviennent dans la production du son. On parle alors de modèles physiques.

Julius Smith précise que les modèles physiques sont mieux adaptés aux interprètes que les modèles spectraux qui s’intéressent davantage à la perception qu’a l’auditeur d’une musique. «Si vous jouez d’un instrument, vous ne vous préoccupez pas tant des détails associés à comment le son est perçu mais plutôt des détails relatifs au jeu de l’instrument que les modèles physiques permettent de contrôler», a-t-il indiqué.
«Nous disposons de la plupart des connaissances scientifiques nécessaires pour modéliser les instruments à cordes, comme la guitare (cordes pincées) ou le piano (cordes frappées). Les instruments à vent, comme la flûte et la voix humaine, sont quant à eux nettement plus difficiles à modéliser puisqu’ils font intervenir l’aérodynamique, qui est extrêmement complexe. Dans une flûte ou des cuivres, les détails de l’écoulement de l’air sont très difficiles à décrire mathématiquement. Aucune équation simple ne permettra de simuler la situation de façon exacte», a-t-il expliqué.
Udo Zölzer, de l’université Helmut-Schmidt, à Hambourg, en Allemagne, a quant à lui modélisé les circuits électroniques de différents amplificateurs de guitare électrique utilisés par diverses générations de guitaristes. Par la modélisation mathématique, il est parvenu à reproduire différents effets de distorsion produits par les amplificateurs utilisés autant par Jimi Hendrix que par Brian May, du groupe Queen notamment. Mais contrairement à ces musiciens qui devaient trimballer leur grosse boîte d’amplification, le chercheur allemand peut utiliser la distorsion qu’il désire en branchant à sa guitare un simple ordinateur portable, voire un téléphone cellulaire dans lequel il a introduit un logiciel décrivant le modèle mathématique qu’il a élaboré.

Pour sa part, Gianpaolo Evangelista du Linköping Institute of Technology à Norrköping en Suède a élaboré un algorithme mathématique permettant de reproduire en temps réel le phénomène d’inharmonicité que l’on entend lors de l’émission des sons de certains instruments de musique. «Les notes les plus graves du piano sont inharmoniques [c’est-à-dire qu’elles sonnent peu harmonieuses, voire dissonantes à l’oreille] en raison de la plus grande épaisseur des cordes de métal sur lesquelles frappent les marteaux, a expliqué le chercheur. Pour reproduire avec fidélité le son de toutes les notes d’un piano, il faut donc inclure toujours un peu plus d’inharmonicité à mesure que l’on descend vers les graves. En l’absence de cet ajout, le son d’un piano synthétique ne nous apparaîtra pas naturel.»

Le même phénomène d’inharmonicité s’observe aussi avec la guitare, les percussions et les cloches, poursuit Gianpaolo Evangelista. Il faut joindre un soupçon d’inharmonicité aux sons plus graves de ces instruments pour que le son nous semble fidèle à la réalité.

Or avec l’algorithme construit par Gianpaolo Evangelista, il devient possible de rendre les sons de tous instruments de musique inharmoniques, «ce qui pourrait plaire à certains musiciens contemporains qui voudront peut-être les utiliser dans leurs compositions», a fait remarqué le physicien.
Étienne Corteel et Olivier Warusfel, de l’Institut de recherche et de coordination acoustique musique (IRCAM), à Paris, s’appliquent à reproduire des environnements sonores tridimensionnels encore plus sophistiqués que ceux produits par les systèmes stéréophoniques, 5.1 ou cinéma maison, tous basés sur des illusions sonores.

Véritables prestidigitateurs, ils arrivent à donner l’impression à un auditeur installé dans une simple pièce de sa maison qu’il se trouve à l’intérieur d’un grande salle de concert où il pourra changer de sièges sans que son écoute ne soit modifiée.
Quand l’auditeur est situé exactement entre les deux ou les cinq haut-parleurs de son système haute-fidélité, on réussit à lui donner l’impression que la voix ou la guitare, par exemple, n’est pas située sur l’un ou l’autre des haut-parleurs mais placée entre les deux en envoyant des signaux sonores plus ou moins forts dans les différents haut-parleurs, a expliqué Étienne Corteel. «Le problème est que cette illusion est extrêmement instable. Dès qu’on ne sera pas exactement entre les deux haut-parleurs, la source sonore nous apparaîtra collée à une des deux enceintes, qui sera en général celle qui est la plus proche de nous. Et comme on n’est jamais au centre des haut-parleurs, on entendra distinctement les deux haut-parleurs, ce qui est loin d’être la salle de concert idéale puisqu’il s’agit en général de notre salon, qui a une acoustique de petite pièce. L’illusion est donc boiteuse», a-t-il précisé.

Étienne Corteel cherche à mettre au point une technique qui permettra de s’affranchir de toutes ces limitations et de donner l’impression à l’auditeur qu’il est au centre d’une scène sonore artificielle, et ce, quel que soit l’endroit où il est situé à l’intérieur de la pièce où il se trouve. Grâce à la technique de Wave Field Synthesis, ou technique des fronts d’ondes, l’auditeur entendra non pas les haut-parleurs mais les sources sonores qui auront leur identité propre. Il aura aussi l’impression de se trouver dans une véritable salle de concert. La technique de Wave Field Synthesis permet en effet de modifier l’acoustique de la pièce. «Avec cette technique, on arrive à restituer la position des sources sonores pour n’importe quelle position de l’auditeur dans la pièce. Celui-ci pourra se déplacer et aura toujours une vision cohérente de l’ensemble des sources sonores», a souligné le chercheur.

Pour ce faire, on multiplie le nombre de haut-parleurs que l’on sépare de 15 à 20 centimètres. Ceux-ci sont installés à la hauteur de la tête de l’auditeur car l’être humain localise et distingue beaucoup mieux les sources sonores qui se situent dans le plan horizontal que celles qui se trouvent au-dessus de lui ou à ses pieds, et ce, en raison de la position de nos oreilles qui se situent dans un même plan horizontal, a expliqué Étienne Corteel tout en précisant que le système est parfaitement adaptable à toutes les tailles de pièces d’écoute. «Bien sûr, ça peut assez rapidement donner un nombre important de haut-parleurs, mais nous n’avons pas trouvé mieux jusqu’à maintenant pour donner à entendre ces types d’environnements acoustiques naturels, qu’on n’arrive pas à reproduire avec un nombre réduit de haut-parleurs», a reconnu le chercheur.

À entendre tous ces chercheurs invités par le département des technologies de la musique à l’université McGill, on comprend que la musique est un art très scientifique!
1 commentaire
  • Marc PHILIP - Inscrit 29 décembre 2006 11 h 42

    C'est de la haute fidélité...

    Tout porte à croire que les progrès réalisés en terme de prise de son et traitement de ceux ci, vont permettrent une plus grande fidélité de reproduction, du moins permettre au plus grand nombre d'accéder à la reproduction dite : haute-fidélité, sans avoir à dépenser des fortunes dans du matériel souvent hors de prix.

    D'un autre côté, on peut de poser la question de savoir si le fait de "tricher" électroniquement en post production, ne vas pas à l'encontre de la réalité sonore de l'instrument ou interprêtation ?

    Dans tous les cas, un piano devra sonner comme un piano, une contre-basse également etc ...

    Si tous le monde y trouve sont compte, c'est bien là le principal, l'émotion musicale démocratisée, peut être un concept populaire et c'est tant mieux, qu'importe le chemin c'est la destination qui compte.

    Musicalement vôtre.

    Marc PHILIP
    Rédacteur indépendant du webzine Franco-Canadien www.magazine-audio.com