Serveur © IRCAM - CENTRE POMPIDOU 1996-2005. Tous droits réservés pour tous pays. All rights reserved. |
Culture et recherche n° 64, Janvier 1998
Copyright © Ircam - Centre Georges-Pompidou 1997
L'histoire de la musique constitue un terrain privilégié pour l'étude des relations liant sciences, techniques et art. De Pythagore à Leibnitz, la musique occidentale a longtemps été considérée comme un domaine des connaissances au même titre que les mathématiques et l'astronomie, avant de devenir un phénomène essentiellement culturel, dont les contenus tendent à être spécifiés par les fonctions sociales qu'elle occupe. L'art de composer les sons repose en effet à un certain degré sur la connaissance, explicite ou non, de lois extra-culturelles liées à leur production (acoustique) et à leur réception (psychoacoustique). Avec l'avènement du romantisme, cette composante objective de la musique fut totalement occultée au profit de sa dimension expressive. Ce n'est qu'au cours du vingtième siècle, en particulier après les ruptures suscitées par les mouvements de l'après-guerre, que le rôle de la science put être reconsidéré, notamment à travers une appropriation par les compositeurs des inventions techniques qui s'étaient multipliées depuis la découverte de l'électricité. Dans notre société industrielle où les avancées techniques résultent directement de la recherche, l'inscription de la science dans le processus de création musicale est motivée non seulement par le renouvellement des outils désormais utilisés pour la composition, mais aussi plus largement comme méthode d'investigation et de formalisation d'une connaissance du réel utilisée à des fins expressives.
Synthèse sonore et extension de la palette orchestrale
Le développement des procédés de synthèse sonore, d'abord électronique, puis numérique, a permis la création de sons nouveaux, utilisés comme tels dans les oeuvres ou en complément des instruments traditionnels. Les premiers dispositifs ne convenaient à la production que de classes limitées de sons, correspondant à des combinaisons d'oscillateurs périodiques. Grâce à l'apport des théories numériques du signal , ils ont été perfectionnés sous la forme de modèles de signaux adaptés à la représentation et donc au traitement de sons quelconques. Les transformations ainsi produites, telles que filtrage, transposition, dilatation temporelle ou interpolation entre deux sons, ont considérablement élargi le répertoire expressif du compositeur. De nombreux chercheurs consacrent aujourd'hui leurs travaux à la modélisation acoustique des sources sonores, destinée à la synthèse d'instruments réels et virtuels préservant toute la richesse de leur timbre, au prix d'une complexité accrue. Un des principaux enjeux posés par la synthèse est celui de son contrôle, le nombre de paramètres à spécifier augmentant avec la richesse escomptée du résultat sonore. Diverses approches complémentaires sont menées dans cette direction, de la réalisation d'interfaces graphiques ou gestuelles à la mise en oeuvre de langages informatiques pour formaliser les règles de contrôle. Celles-ci ne peuvent être établies qu'en accord avec une connaissance des modalités de la perception et de la cognition auditives, qui fait l'objet de travaux de modélisation spécifiques et dont les particularités ont été illustrées musicalement par Jean-Claude Risset. Il est ainsi envisageable que les règles d'orchestration pratiquées par les compositeurs puissent être progressivement élucidées à partir d'études menées en psychologie expérimentale sur la perception du timbre.
Composition assistée par ordinateur
L'ordinateur est un outil adapté à la formalisation des structures musicales, dont le calcul est ainsi possible à partir de spécifications basées sur une description mathématique. Le résultat produit est disponible sous forme de partition et est exploité, selon les approches esthétiques, comme matériau d'écriture précompositionnel par des compositeurs comme Brian Ferneyhough, Michael Jarrell ou Magnus Lindberg, voire, plus radicalement dans le cas de Pierre Barbaud et de certaines pièces de Iannis Xenakis, comme oeuvre achevée, dont l'intégralité de la forme est obtenue par calcul. Les modèles compositionnels constituent un support de réalisation adapté au concept d'oeuvre ouverte, chaque paramétrisation des algorithmes utilisés donnant lieu à une instance particulière de celle-ci. Gerhard Winkler est même allé jusqu'à mettre en place un dispositif où les interprètes découvraient sur écran leur partition, calculée en direct par ordinateur pendant le concert. Avec le développement de la synthèse, certains compositeurs comme Jonathan Harvey, Kajia Saariaho ou Marco Stroppa, se sont intéressés, en complément des paramètres classiques d'écriture tels que hauteurs, durées et intensités, à la maîtrise des attributs du timbre. Le problème du contrôle de la synthèse se traduit ici en termes de quantité d'information nécessaire à la spécification d'un processus, dans le passage d'une description symbolique à celle de l'univers quasi-continu des sons échantillonnés. L'opération inverse, qui consiste à partir d'un matériau sonore originel pour en déduire par analyse une représentation discrétisée, utilisable à des fins d'orchestration, est abondamment utilisée, notamment par les compositeurs se réclamant du courant spectral initié par Tristan Murail, pour l'écriture de pièces associant sons naturels et partie instrumentale.
Temps-réel, interaction instrumentale et support de l'oeuvre
La réalisation d'oeuvres comportant des sons de synthèse pose le problème de leur exécution, qui se ramène à celui du support des parties électroniques. Dans le cas des musiques acousmatiques, dont les oeuvres de François Bayle et Bernard Parmegiani sont représentatives, l'intégralité du contenu musical est préenregistré sur un support adéquat et rejoué lors du concert, l'interprétation étant alors transposée à la mise en espace des sons. Dans le cas d'oeuvres dites mixtes, combinant des parties instrumentale et électronique, diverses solutions sont envisagées pour synchroniser celles-ci. Certaines productions imposent au chef d'orchestre l'écoute d'un signal métronomique généré par le dispositif de synthèse. D'autres prévoient le déclenchement des événements de synthèse par un interprète. Les dispositifs les plus élaborés et autorisant la plus grande flexibilité d'interprétation sont basés sur des logiciels fonctionnant en temps-réel, qui assurent un suivi en direct d'un ou plusieurs instruments dont la partition est mémorisée dans l'ordinateur. Ces systèmes permettent aussi une transformation en direct du son des instruments pour étendre leurs possibilités sonores. Les oeuvres qui vont le plus loin dans les possibilités d'interaction instrument/ordinateur sont celles de Pierre Boulez et de Philippe Manoury. Les algorithmes de traitement du son en temps-réel sont également utilisés en studio par des compositeurs tels que Daniel Teruggi ou Alejandro Viñao pour élaborer des matériaux sonores complexes en jouant sur les paramètres de transformation. La pérennité des oeuvres basées sur les dispositifs interactifs, en l'absence de tout autre support, nécessite des investissements particuliers pour pallier à l'obsolescence rapide des matériels informatiques, en assurant le suivi et le portage régulier des logiciels nécessaires sur les nouvelles plate-formes matérielles.
Spatialisation et acoustique virtuelle
L'utilisation de dispositifs électroacoustiques pour la diffusion des oeuvres en concert a ouvert aux compositeurs une nouvelle dimension expressive en leur permettant d'agir sur la spatialisation des sons. Celle-ci a intéressé des compositeurs aux horizons esthétiques aussi différents que François Bayle, Pierre Boulez et Karlheinz Stockhausen. La méthode la plus simple et la plus couramment employée pour simuler une source mobile consiste à disposer un nombre plus ou moins grand de haut-parleurs dans la salle de concert et à leur envoyer les mêmes signaux sonores avec des intensités relatives variables. L'utilisation de plusieurs canaux pour un rendu en relief s'est généralisée avec la stéréophonie, puis plus récemment avec de nouvelles formes de codage telles que les systèmes de surround pour le cinéma. La simulation de l'effet de salle est obtenue par la mise en oeuvre de techniques de traitement du signal appliquées à la réverbération artificielle. Les travaux les plus avancés en matière de simulation sont basés sur des études relatives à la perception de la qualité acoustique des salles. Ils permettent la spécification d'un effet de spatialisation combinant la localisation de sources sonores et la réverbération d'une salle virtuelle à partir d'attributs perceptifs. Cette description est indépendante du dispositif de restitution, qu'il s'agisse d'un casque, de stéréophonie ou de haut-parleurs multiples. Il est ainsi permis d'espérer aboutir dans les années à venir à des systèmes de notation de la spatialisation, qui viendraient compléter les paramètres traditionnels de l'écriture. Un autre champ d'investigations prometteur porte sur la réalisation de sources électroacoustiques à directivité contrôlée, éventuellement proche de celle des instruments, le champ acoustique produit par les haut-parleurs traditionnels étant très typé et rendant difficile la fusion acoustique de sons électroniques avec ceux des instruments.
Les exemples qui précèdent ont illustré l'utilité, comme support à la fois conceptuel et opératoire, des recherches et développements technologiques au renouvellement de l'expression musicale. Il apparaît que la méthode analytique pratiquée par la science moderne, qui se traduit par une spécialisation toujours plus grande des connaissances, est davantage transposable à la résolution de problèmes isolés et de détail, de l'ordre du matériau, qu'à une conception de la forme qui ne peut résulter que d'une appréciation globale. Sans prétendre, comme le laisserait entendre la dénomination d'intelligence artificielle, suppléer au processus vivant d'intuition créatrice par des machines, aussi complexes soient-elles, il est toujours possible de reculer la limite d'une rationalité opératoire tout en libérant l'esprit des actions mécanisables.
En l'absence de consensus possible sur la qualité musicale ou la portée des oeuvres, l'évaluation de la recherche musicale ne peut être opérée qu'indirectement, à travers ses retombées sociales. Force est alors de constater que les techniques utilisées dans les différents domaines de la production sonore, qu'il s'agisse de musiques populaires, de son à l'image ou de multimédia, ont considérablement évolué au cours des quinze dernières années, souvent grâce à l'intégration de procédés inventés par des pionniers de la création musicale. Plus largement, les méthodes développées pour la synthèse sonore, l'étude de la qualité acoustique, la formalisation des langages musicaux ou la simulation acoustique trouvent aujourd'hui des applications industrielles dans les domaines de l'automobile et des transports, des télécommunications, du multimédia ou du design. De là à en déduire que l'exigence qui préside à la création précède dans sa portée inventive toute réalisation uniquement motivée par des considérations marchandes, il n'y a qu'un pas. Les centres français occupent un rôle de tout premier plan dans leurs contributions à la recherche musicale, comme en atteste la diffusion internationale des logiciels MAX et GRM Tools, respectivement conçus à l'Ircam et à l'Ina-GRM et plébiscités par une communauté d'utilisateurs qui dépasse largement celle de la musique contemporaine.
____________________________
Server © IRCAM-CGP, 1996-2008 - file updated on .
____________________________
Serveur © IRCAM-CGP, 1996-2008 - document mis à jour le .