Serveur © IRCAM - CENTRE POMPIDOU 1996-2005. Tous droits réservés pour tous pays. All rights reserved. |
InHarmoniques nº 3, mars 1988 : Musique et Perception
Copyright © Ircam - Centre Georges-Pompidou 1988
« La perception commence au changement de sensation; d'ou la nécessité du voyage. »
André Gide, Paludes
« Dans son éveil d'alerte, il écoutait quoi ? Un animal, une feuille, une langue (ami, ennemi ? -> identité, intentions), un corps, son rapport à la bête et à l'homme, leurs rapports au bois, au métal... Car la musique n'est pas seulement " fabrique" ou " percetion " elle est contact (intelligence) de corps à corps. »La perception est « incontournable » Le mot anglais « obvious », étymologiquement « en travers de la voie », se traduit par « évident ». L'obstacle qu'on trouve sur son chemin est voyant, opaque, il s'impose à la conscience - alors qu'on l'oublie volontiers s'il n'empêche pas de poursuivre sa route. Le regard ignore ses propres points aveugles. Le lecteur se souvient- il de cette expérience de « leçon de choses »? Qu'il ferme l'oeil gauche (il lui faut renverser la figure s'il préfère fermer l'oeil droit) et qu'il dirige son regard vers la croix, figure 1, d'assez loin pour commencer (50 centimètres environ). Dans son champ de vision périphérique, il apercevra sans doute l'astérisque: mais si, en continuant de fixer la croix, il déplace lentement la revue en la rapprochant de l'oeil, l'astérisque disparaîtra puis réapparaîtra.
Claude Minière
Fig. 1
Pourquoi rappeler cette curiosité? Elle s'explique assez
aisément: le nerf optique s'épanouit au fond de l'oeil dans une
zone où la rétine est dépourvue de cellules
réceptrices, à l'écart du centre, de la tache jaune qui
correspond à la direction du regard et qui comporte au contraire la plus
grande densité de cellules sensibles. Les rayons lumineux tombant dans
cette zone n'impressionnent pas la rétine, l'oeil y est aveugle. Mais
ce qui est remarquable, c'est que l'oeil - ou plutôt la conscience -
ignore allègrement cette particularité. Même si
l'on ferme un oeil, on n'a nullement le sentiment d'un trou dans son champ de
vision. La perception ne se contente absolument pas de transmettre à la
conscience une image fidèle du monde extérieur, elle manipule
à l'insu du sujet l'information issue des données des sens [1].
Le lecteur pourra penser que les idiosyncrasies de la perception, bizarreries,
insuffisances ou illusions, ne présentent guère
d'intérêt ou de signification pour la musique. La perception
gauchit, distord, trompe parfois : il nous faut viser le monde au-delà
de la vue amoindrie, altérée, que nous transmettent les
fenêtres sensorielles. Descartes se méfiait des sens, qui ne nous
donnent que des certitudes trompeuses : son programme, dans sa Dioptrique,
était de nous aider à corriger les imperfections de la vision
grâce aux pouvoirs de l'intellect.
Et pourtant, avant Descartes, le chancelier Francis Bacon, frappé au
début du XVIIe siècle par les promesses du progrès
scientifique de son temps, prévoyait dans la société
idéale de son continent utopique.La Nouvelle Atlantide «
une maison spécialement consacrée aux expériences qui
peuvent tromper les sens ». Tromperies des sens, les illusions sont des
vérités de la perception, dira en substance le physiologiste
tchèque Purkinje deux siècles plus tard: et la perception, en
dépit des points de vue intellectualistes, est notre voie de passage
obligée, notre accès au monde.
Je n'ai pu quant à moi l'oublier, cet intermédiaire de la
perception, car il s'est trouvé sur mes chemins musicaux,
incontournable, comme on dit aujourd'hui. Bien sûr, avec l'apprentissage
d'un instrument, puis de l'écriture, j'ai développé cette
« oreille intérieure » qui permet au musicien de
prévoir l'effet auditif de tel accord, de telle combinaison de timbres.
Il s'agit déjà d'un repérage de modalités auditives
- mais si courant dans l'arsenal du compositeur instrumental qu'on y pense
à peine. Les instruments nous sont familiers - cette familiarité
n'est pas innée sans doute, elle vient de l'usage, mais les
catégories instrumentales sont internalisées, solidement
ancrées, presque comme les phonèmes de la langue maternelle.
Chaque instrument est un objet visible, à la structure mécanique
stable: les variantes possibles du timbre sont liées à cette
structure et à la façon dont on l'excite, et il suffit de
désigner l'instrument et son mode de jeu pour cerner l'effet auditif
qu'on peut en attendre. La partition, en fait simple code d'actions, nous
apparait volontiers comme une représentation adéquate de la
musique.
Avec le « son électrique », la notion d'instrument est plus
floue.
Les sources sonores perdent leur identité: elles ne sont plus visibles,
elles deviennent difficiles à repérer, il ne suffit plus de les
désigner pour spécifier leur timbre. Quel est le timbre d'un
haut-parleur, source aujourd'hui omniprésente de son musical? Aussi
Pierre Schaeffer prêchait-il pour un solfège des objets sonores -
solfège des effets plutôt que des causes. Avec l'ordinateur, on
peut bâtir un son de structure physique arbitraire : mais ce qui importe,
c'est son effet sensible. L'un des premiers à explorer les ressources de
la synthèse des sons par ordinateur, j'en ai fait l'expérience
souvent décevante: les opérations qu'on stipule en termes
physiques ne modifient pas toujours le son de la façon prévue.
L'effet sonore obtenu est souvent inattendu, ne paraissant pas toujours
correspondre à l'agencement objectif. L'oreille intérieure est
ici de peu d'utilité, à moins de se limiter à des sons
proches de sons instrumentaux. L'audition a des modalités très
spécifiques: la relation « psychoacoustique » entre
structure physique et structure perçue est bien plus complexe qu'on ne
le croit, elle est parfois même contraire à l'intuition. Si l'on
veut tirer parti des ressources de l'ordinateur, il faut tenir compte des
particularités de la perception.
Certains diront : cela ne concerne que la palette sonore, pas la musique
elle-même : la musique ne se réduit pas aux sons, elle instaure
des relations entre les sons [2]. Mais ces relations sont jugées par
l'oreille - la musique est faite pour être entendue. Travaillant avec
l'ordinateur on peut instaurer des relations structurelles entre
paramètres physiques mais les relations qui importent sont celles que
l'audition pourra dégager à l'écoute des sons produits.
Ainsi la prescription de transformations de fréquence donnera lieu
à des changements de hauteur sonore : on pense
généralement que les relations établies entre
fréquences se traduiront par des relations homologues entre les
hauteurs. Cette homologie est tellement forte, semble-t-il, qu'on
néglige souvent de distinguer fréquence et hauteur, tant la
hauteur - paramètre perceptif, subjectif, dégagé par la
perception du sujet - paraît clairement repérée par la
fréquence du son correspondant - grandeur physique mesurable.
Or cette assimilation, épistémologiquement abusive, est de plus
erronée, aberrante, pour certains types de structures sonores. J'ai
synthétisé en 1968 un son dont la hauteur paraît
baisser- pour tous les auditeurs - lorsqu'on double toutes les
fréquences qui le composent, par exemple en doublant la vitesse du
magnétophone sur lequel on le joue! Curiosité, trucage, si l'on
veut, mais surtout démonstration, provocante peut-être, mais
édifiante, de ce que les relations musicales visées dans le
domaine sensible peuvent être complètement
dénaturées par leur transposition pure et simple dans le domaine
des paramètres physiques qui leur sont traditionnellement
associés (Risset, 1971, 1978).
J'ai réalisé récemment un exemple encore plus
hérétique : un son scandé par des battements
rythmés, qui paraissent ralentir lorsqu'on double la vitesse
du magnétophone, doublant ainsi fréquences et cadences
(Risset, 1986). Une accélération dans le monde physique peut
être perçue comme un ralentissement! Comment soutenir après
cela que l'intermédiaire de la perception est toujours transparent, intuitif, et
qu'il est futile de s'y attarder?
La thèse concernant la perception que je voudrais détendre ici
suppose formellement que le monde extérieur existe en soi, même si
pour nous il ne prend corps qu'à travers notre perception et, bien
sûr, nos actions, notre pensée, notre histoire, notre arsenal
d'idées apprises ou ambiantes. Cette thèse tient les
mécanismes de la perception pour hautement spécifiques, mais
nullement arbitraires: leur évolution aurait tenu compte des
propriétés du monde pour s'adapter, et plus
précisément pour fournir à l'organisme, à partir
des données des sens, des informations utiles à la survie.
Là encore, je ne suis pas arrivé à ce point de vue
à la suite de spéculations purement théoriques ou
académiques. Explorant les ressources de la synthèse des sons par
ordinateur, je me suis vite rendu compte de ce que la relation psychoacoustique
entre paramètres physiques et effets perçus était
complexe, spécifique et apparemment capricieuse. Essayant
d'énumérer ses particularités, j'arrivais à un
catalogue de recettes faisant penser à un inventaire selon
Prévert ou un bestiaire chinois à la Borgès. Pourrait-il
exister un fil d'Ariane permettant de comprendre la raison d'être de
modalités auditives si singulières?
Dans mes essais d'imiter par ordinateur les sons instrumentaux (Risset &
Mathews, 1969; Risset & Wessel, 1982), ce n'est pas 1e fonctionnement
physique des instruments que je cherchais à simuler. Mon critère
était perceptif : je voulais que l'imitation fût semblable
à l'original pour l'oreille. Mais une observation m'avait
frappé: les sons sonnaient souvent de façon plus réaliste,
leur identité était plus robuste, lorsque leur écoute
suggérait la manière dont le son aurait pu être
produit physiquement. C'est le cas des sons « percussifs » qui
figurent dans mon catalogue de 1969, notamment des « cloches »
avec leurs battements ou des « tambours » avec leurs «
timbres » (je le répète, ces sons étaient produits
par synthèse additive, sans chercher à reproduire le
mécanisme physique comme j'aurais pu le faire par calcul d'une
réponse impulsionnelle). Et la propriété qu'a la suite de
mes « analyses par synthèse » j'avais trouvé
caractéristique des sons cuivrés - le fait que le spectre
s'enrichit dynamiquement en fréquences aigues quand l'intensité
augmente - a sa contrepartie dans le fonctionnement physique des cuivres. Les
mécanismes de l'oreille seraientils moins « réguliers
» que « séculiers»?
Tentant en 1972 de compiler un article général sur l'acoustique
musicale (Risset, 1978), je rencontrai un article du psychologue J.J. Gibson
qui critiquait le recours abusif à des paramètres perceptifs tels
que hauteur et intensité. Ces paramètres sont-ils vraiment des
attributs de la perception? ou simplement la contrepartie sensible des
paramètres physiques - fréquence, amplitude - qui sautent aux
yeux dans la représentation des ondes acoustiques? Selon Gibson,
l'étude de ces paramètres n'est guère significative: il
serait plus intéressant d'étudier comment l'audition distingue
les événements du monde réel. Gibson soutenait un point de
vue peu orthodoxe à l'époque: Les sens ne fonctionnent pas
d'abord en extracteurs de paramètres, comme le laissait à penser la psychoacoustique de Fechner (cf. ci-dessous); ce ne
sont pas seulement des relais, des transducteurs envoyant au cerveau une copie,
une image, même transformée, du stimulus externe. Il faut
remplacer cette notion de transducteurs par celle de systèmes
perceptifs, qui traitent les stimulations leur parvenant du monde physique
pour y puiser des informations utiles sur l'environnement. Chaque sens aurait
ainsi ses modalités particulières, adaptées à tirer
parti des caractéristiques propres aux signaux physiques correspondants
et à en extraire des indices sur le monde extérieur pouvant
être utiles à la survie de l'organisme.
Les sens auraient ainsi, à travers l'évolution, acquis une sorte
de connaissance des propriétés de l'émission et de la
propagation des signaux physiques, connaissance inscrite dans leurs
modalités. Dans le monde animal, de très nombreuses observations
viennent à l'appui de l'hypothèse d'une adaptation des
mécanismes moteurs et perceptifs à la nature physique des ondes
acoustiques (Busnel, 1963; Leroy, 1979). Citons simplement l'étonnant
exemple de la courtilière, exemple qui concerne, plutôt que la
réception, l'émission acoustique. Avant d'émettre son
chant d'appel sexuel, cet insecte orthoptère, appelé aussi
taupegrillon, creuse dans le sol une cavité au-dessus de laquelle il
s'installe : cette cavité a pour effet de concentrer l'énergie du
signal qu'il émet au voisinage du sol, seul lieu où peuvent se
trouver des partenaires potentiels. Etonnant savoir-faire acoustique issu de
l'évolution.
L'ouvrage majeur de Gibson, The senses considered as perceptual systems
(1966), donne nombre d'indications précieuses sur l'adaptation des
sens au monde extérieur. Toutefois il s'étend moins sur l'ouie
que sur d'autres sens : la vision, le toucher, voire l'odorat et le goût.
J'ai réexaminé les modalités singulières de
l'audition en relation avec le comportement physique des ondes acoustiques
(Risset, 1973) : l'adéquation des mécanismes auditifs est
remarquable, et le point de vue de Gibson aide à en comprendre
les particularités, à saisir leur raison d'être en
rapport avec les fonctions originaires de l'ouie.
Ainsi les fréquences audibles sont comprises entre 20 et 20 000 Hertz
environ. Le recours à des fréquences bien plus
élevées serait inutile, car les ultrasons sont très vite
absorbés dans l'atmosphère. Ces fréquences correspondent
à des longueurs d'onde allant de 1,7 centimètre à 17
mètres. A la différence d'une onde lumineuse, de longueur d'onde
bien plus petite, une onde sonore ne peut transmettre d'information sur la
structure fine des objets. En revanche, un objet ne porte ombre effcacement sur
une onde que si ses dimensions sont bien plus grandes que la longueur d'onde :
ainsi les sons pas trop aigus peuvent contourner des obstacles et, par exemple,
se propager à une certaine distance dans une forêt vierge
où l'on ne voit pas loin. Aussi l'audition estelle précieuse
comme sens d'alerte : on reçoit les sons venant de toutes les
directions. L'extraordinaire sensibilité de l'oreille lui permet
d'apprécier des sons très faibles, issus d'une source très
éloignée. On peut entendre une onde sonore correspondant à
des déplacements pério diques du tympan extrêmement minimes (d'amplitude inférieure aux
dimensions d'un atome), mais l'oreille peut aussi supporter des sons dont
l'énergie est mille milliards de fois celle de ces sons liminaires
[5].
La propagation du son dans l'air est linéaire, c'est-a-dire que les sons
peuvent s'ajouter (ou se retrancher) sans interagir [6]. L'audition peut
donc prendre en compte des sons simultanés issus de sources
différentes : elle a développé un mécanisme
d'analyse en fréquence qui l'aide à éviter qu'un son ne
soit masqué par un autre - un son très grave masquera
difficilement un son suraigu, ou vice versa (Lewis, 1987). On appelle «
bande critique de l'audition » la largeur de bande de cette analyse, qui
est d'environ un tiers d'octave dans le médium. C'est, on le voit, une
analyse assez grossière : cela évite la perte de
résolution temporelle, mais l'audition dispose d'autres processus
neuraux pour effectuer des comptages temporels permettant des discriminations
de fréquence beaucoup plus fines [7].
On ne s'étonnera donc pas que l'audition soit spécialement
sensible aux changements de l'environnement sonore et qu'elle tende à
éliminer de la conscience les sons stationnaires, Ies bruits de fond. Il
est normal aussi que l'audition comporte un schéma perfectionné
détectant la direction de la source sonore : il importe de savoir
d'où vient le danger. (Gibson insiste sur l'importance de l'orientation
auditive.) Le traitement des échos est spécialement
élaboré : les échos arrivant à l'oreille moins de
50 millisecondes après le son direct fusionnent avec ce son direct et le
renforcent, cependant l'oreille leur assigne comme direction celui du son
direct, même si certains échos sont plus intenses que le son
direct. Cette caractéristique aide l'oreille à repérer la
direction de la source, celle du premier rayon sonore qui l'atteint, puisque le
trajet en ligne droite est moins long que celui parcouru par les sons en
écho. Si les échos sont semblables mais non identiques au sens
direct, l'oreille continue de les fusionner, mais elle a le sentiment que la
source sonore est plus étendue [8].
Sous peine de submerger la conscience, l'oreille doit savoir faire un tri dans
tous les sons qui lui parviennent, et aussi les interpréter. Ici
interviennent des mécanismes élaborés dont on a rarement
conscience - j'y reviendrai à propos de l'organisation perceptive.
Par exemple, l'audition n'a généralement pas de mal à
distinguer un son émis doucement par une source proche d'un son intense
venant d'une source éloignée, même si ces deux sons
arrivent à l'oreille avec des intensités comparables : l'oreille
évalue inconsciemment la distance de la source sonore à partir
des indices dont elle dispose. L'intensité est un indice insuffisant :
si l'on baisse le volume de la radio, le son devient plus doux, mais il ne
s'éloigne pas. L'oreille apprécie la distance en tenant compte du
spectre (l'air absorbe surtout les fréquences aiguës : le tonnerre
lointain est affaibli, mais aussi assourdi), mais plus encore du niveau du son
réverbéré par rapport au son direct : lorsque la source
s'éloigne, le son direct s'affaiblit alors que le champ
réverbéré reste relativement constant, et c'est là
un indice important pour estimer la distance de la source, comme les
expériences de synthèse sonore de John Chowning ( 1971 ) le
démontrent de façon frappante. L'oreille tient compte aussi de
symptômes acoustiques liés à l'énergie
d'émission à la source : ainsi, pour nombre de sons, particulièrement les sons
cuivrés, le spectre est plus riche en fréquences aiguës si
le son est joué plus fort (Risset & Mathews, 1969); dans la parole
criée, l'énergie des voyelles augmente plus que celle des
consonnes, et le spectre même des voyelles est modifié.
Synthétisant des sons de type vocal, John Chowning a réussi, en
contrôlant ces indices, à donner à l'auditeur l'impression
qu'un abaissement du niveau sonore tenait soit au fait que la « soprano
» chantait moins fort, soit qu,elle s'éloignait du « micro
» (ces guillemets parce que ce ne sont là que simulacres).
On ne s'étonnera pas non plus que l'oreille soit extrêmement
sensible à la fréquence des sons : contrairement aux
intensités, les fréquences sont très stables, elles ne
sont que rarement modifiées entre source sonore et auditeur. L'effet
Döppler fait exception (c'est un effet physique et non perceptif : il
s'agit de l'augmentation ou la diminution apparente de la fréquence
d'une source vibratoire lorsque cette source s'approche ou s'éloigne de
vous) Mais l'oreille tire justement parti de l'effet Döppler pour
inférer le mouvement des sources d'une façon qui peut être
assez détaillée, comme le démontre Turenas, composition
« cinétique » synthétisée sur ordinateur
parJohn Chowning, où le mouvement rapide des sources illusoires
apparaît à l'oreille de façon quasi visuelle.
Il est logique aussi que l'oreille soit insensible aux déphasages entre
harmoniques d'un son périodique (cf. fig. 2) : en l'absence de
réverbération, ces déphasages varient linéairement
avec la distance, et dans une salle même peu réverbérante,
les relations de phase sont complètement noyées; une
sensibilité aiguë à la phase compliquerait fort
l'interprétation d'un signal auditif.
Fig. 2. On voit ici quatre ondes obtenues par synthèse de Fourier de dix harmoniques. On passe de l'onde 1 à 2, 3 et 4 en gardant le même « spectre » (les mêmes amplitudes respectives des composantes harmoniques) et en ne modifiant que leurs composantes respectives. A l'audition. on ne percoit pratiquement aucune différence entre 1, 2, 3 et 4, alors que les quatre spectres sont visuellement très différents: l'oreille n'est pas sensible aux relations de phase entre les composantes d'un son, et l'onde sonore ne constitue pas une représentation pertinente.Depuis Helmholtz (1877), les manuels d'acoustique musicale attribuent les différences de timbre entre instruments de musique aux différences de spectre entre les sons émis par ces instruments. La synthèse imitative a montré que ce point de vue était très insuffisant (Risset & Mathews, 1969; Chowning, 1973; Risset & Wessel, 1982). En effet la structure spectrale d'un son est une trace labile, facilement modifiée par la propagation. La plupart des sources sonores ne rayonnent pas avec la même intensité dans toutes les directions : lorsqu'on tourne autour, le spectre reçu par l'oreille change considérablement, mais la reconnaissance sonore en est fort heureusement peu affectée. Il en est de même lorsqu'on se déplace dans une salle réverbérante, dont la réponse spectrale est très tourmentée et très variable d'un point à un autre.
Fig. 3. Sonagrammes de quelques sons. La représentation sonagraphique donne du son une « photographie » assez révélatrice, du son et de ses évolutions. En abscisse, le temps - environ deux secondes pour chaque son; en ordonnée, la fréquence en échelle linéaire jusqu'à 5000 Hertz environ. Chaque composante est représentée avec un noircissement d'autant plus important qu'elle est plus intense à cet instant. 1 correspond à des mots parlés; 2 à une gamme chromatique ascendante puis descendante de piano - ce sonagramme est réalisé avec une largeur de bande d'analyse de 300 Hertz' au lieu de 50 Hertz pour 1 et 3; 3 à une texture synthétisée par ordinateur dans ma pièce Little Boy (1968).L'ouie paraît avoir développé des processus pour remonter des sons à leur genèse, pour identifier le ou les mécanismes ayant donné lieu aux sons reçus. Selon Huggins ( 1952), l'audition est agencée pour séparer dans les signaux reçus excitation et réponse, lorsque le son est produit par un mécanisme excitateur « en temps » attaquant un système stable, « hors temps » : les caractéristiques agogiques des signaux dépendent surtout de l'excitation, les caractéristiques spectrales résultent de la combinaison de l'excitation et de la réponse. Cette séparation - on parle de « déconvolution » - n'est pas toujours possible de façon unique, mais l'audition est armée pour la tenter, et pour extraire ainsi des renseignements structurels autant qu'événementiels, pour dissocier la permanence et le devenir. On voit apparaître mutatis rnutandis la distinction schaefferienne forme-matière. Gibson fait remarquer que les grandes familles d'instruments de musique correspondent à des actions mécaniques distinctes - frapper, frotter, souffler - que l'oreille repère fort bien [10]. Le bruit de solides frappés, frottés ou cassés donne souvent des indices sur les propriétés du matériau : dureté, raideur..., même si ces différenciations correspondent à des combinaisons complexes de paramètres physiques (Freed & Martens, 1986). L'audition est aussi à l'affût des « accidents » caractéristiques pouvant l'aider à identifier une source sonore. Des sons synthétiques physiquement différents entre eux, mais dépourvus de structurations suffisantes ou d'accidents spécifiques, peuvent laisser l'oreille « sur sa faim » : si les mé canismes de détection du timbre ne peuvent s'accrocher à des traits élaborés renvoyant à des accidents typiques (crissement de l'archet, frappe de la touche de piano), l'identité de ces sons risque d'être vague et falote.
Les musiciens baroques ont souvent recours à un artifice pour donner
l'illusion de polyphonie dans des oeuvres écrites pour un instrument
monodique : ils entrelacent deux lignes mélodiques en faisant alterner
les notes successives de chaque ligne. Si le tempo est assez rapide et si les lignes sont suffisamment séparées, le motif musical se
scinde, à l'écoute, en deux lignes séparées. Cette
ségrégation, ou fission mélodique, a été
étudiée soigneusement par Albert Bregman, dont les
expériences (bien qu'effectuées sur des sons simples,
contrairement aux conseils de Gibson) ont apporté des enseignements
importants sur l'organisation perceptive des sons successifs. Bregman a fait
sien le point de vue écologique, et il a trouvé des
modèles artificiels d'organisation perceptive dans les études
d'intelligence artificielle sur « l'analyse des scènes »,
par exemple les programmes habilitant un ordinateur à interpréter
les images fournies par une caméra de télévision. Souvent
l'oreille reçoit des signaux sonores émanant de sources
distinctes : il lui faut « trier » les données
sensorielles pour s'y reconnaître. La ségrégation
mélodique joue ici un rôle important : elle tend à
regrouper, en fonction de leur proximité fréquentielle [13] des
sons qui se succèdent rapidement; les sons ainsi réunis dans un
même « flot » auditif apparaissent comme images sonores
d'une même source. Il peut être impossible à la conscience
d'empêcher ce groupement: certaines préorganisations perceptives
sont indépendantes de la volonté du sujet. Au sein d'un
même flot auditif, l'ouie peut opérer des évaluations
rythmiques très précises, alors qu'elle est incapable
d'apprécier raisonnablement l'ordre, la régularité, la
« cohérence temporelle » (Van Norden, 1975) de sons
assignés à des flots diflérents [14].
De la même façon, l'oreille peut fusionner ou dissocier des sons
simultanés. Divers sons seront facilement séparables s'ils
occupent des régions différentes de l'espace des
fréquences; s'ils évoluent de façons différentes;
s'ils sont incohérents au sens vibratoire. Les synthèses quasi
vocales effectuées par John Chowning à l'IRCAM en 1979 ont
montré le rôle que peuvent jouer les micromodulations - notamment
un vibrato irrégulier de fréquence - pour aider l'oreille
à distinguer dans le son plusieurs « voix »: s'il n'y a
pas de vibrato, plusieurs sons à intervalle d'unisson, d'octave ou de
quinte tendent à fusionner (ils correspondent à des harmoniques
d'une même vibration et l'oreille a du mal à les séparer),
mais dès qu'on impose à ces sons des vibratos à des
cadences différentes, ou plus généralement des modulations
incohérentes entre elles, l'oreille les distingue comme des voix
séparées [15]. Stephen McAdams a étudié cette
capacité de l'oreille à démêler un écheveau
de sons simultanés. Il a ainsi analysé un son de hautbois en
composantes harmoniques, puis l'a resynthétisé en imposant des
modulations différentes aux harmoniques pairs et impairs. A
l'écoute, le son se scinde en deux: l'un, formé des harmoniques
impairs, rappelle la clarinette; L'autre, formé des harmoniques pairs,
se situe une octave plus haut.
Il s'agit ici « d'analyse par synthèse » de certains
mécanismes d'organisation perceptive. Ces mécanismes une fois
élucidés, le musicien qui utilise les moyens numériques
peut les faire jouer pour influencer les modes perceptifs de l'auditeur. Dans
ma pièce Inharmonique (1977) (Lorrain, 1980), j'avais
formé un corpus de sons inharmoniques, chacun n'étant
caractérisé que par la donnée des fréquences, des
intensités et des durées pour un certain nombre de composantes
(entre 6 et 16). Si je synthétisais un son en imposant à toutes
les composantes une même enveloppe de type percussif (attaque rapide suivie d'une
décroissance graduelle), le résultat évoquait une cloche -
mais composée comme un accord - en tout cas, un objet sonore unique.
Remplaçant cette enveloppe par une autre plus douce, croissant puis
décroissant pour atteindre son maximum par exemple à
mi-durée, j'obtenais, au lieu d'un objet sonore fusionné, une
texture fluide évolutive : à l'image d'un faisceau lumineux
décomposé en arc-en- ciel par un prisme, les composantes, de
durées différentes, émergent en succession, atteignant
leur maximum à des instants différents. La pièce joue sur
cette dialectique fusion-dispersion. Phone, de John Chowning, fait
surgir puis disparaître des voix imaginaires en jouant sur les
micromodulations de fréquence. Archipelago, de Roger Reynolds,
tire parti de l'exemple de McAdams décrit plus haut. Ainsi le musicien,
modifiant le son, fait en sorte qu'il soit perçu globalement, comme
masse, texture, timbre, ou analytiquement, comme polyphonie, lignes, accords :
il peut influencer l'écoute, la guider vers telle ou telle
modalité architectonique, faire surgir à la conscience tel ou tel
être sonore, en ébranlant l'exquise sensibilité de la
perception par des variations infimes, moyennant une conduite des
paramètres fine et détaillée - que seule permet la
précision du numérique. Gerald Bennett nous rappelle une parole
mémorable : « Dieu est dans les détails. » Ce mot
n'est pas d'un miniaturiste, mais d'un architecte, Mies Van der Rohe.
Les mécanismes d'organisation perceptive suivent souvent des
règles de « prégnance », de « bonne forme
», dégagées déjà par les psychologues
gestaltistes. Dans certains cas, ils peuvent être indépendants de
la volonté de l'auditeur; en revanche, dans la plupart des situations,
le passé, les références de l'auditeur, son attention, sa
capacité à former telle ou telle conjecture jouent un rôle
significatif. Bien souvent le rôle de la perception consiste à
confirmer ou infirmer une hypothèse plutôt qu'à prendre
complètement en compte les données sensorielles. La figure 4 en
donne un exemple visuel : pour qui n'a jamais vu ce montage de mots, la
répétition des articles définis n'est pratiquement jamais
aperçue au premier coup d'oeil (Risset, 1967). Une hypothèse
jaillit, suivant laquelle le message visuel comporte deux expressions connues,
et les indices non congrus sont éliminés de façon
inconsciente; la répétition est d'ailleurs bien moins facile
à discerner qu'au sein d,une même ligne, d,un même «
flot » visuel. Licklider va jusqu'à écrire que l'oreille
entend non les données sensorielles, mais l'hypothèse gagnante.
La « restauration phonémique » - qui fait percevoir
à l'auditeur, dans la parole, des phonèmes physiquement absents - donne lieu
à des erreurs, mais elle aide à restaurer un signal de parole
imprécis : l'audition humaine est bien plus performante pour
reconnaître la parole que les systèmes artificiels.
On ne peut réduire l'audition à quelques mécanismes
élémentaires caractérisés par des courbes de
réponse. La perception tient compte des probabilités de
rencontrer telle ou telle stimulation : les stimulations plus fréquentes
seront traitées plus rapidement. L'audition peut tenir compte d'un
contexte très riche, passer inconsciemment d'un niveau à un
autre, effectuer une analyse ou, au contraire, une synthèse des
données sensibles. Ici l'attention du sujet, mais aussi l'information
dont il dispose a priori, sa capacité à former des
hypothèses, jouent un rôle décisif.
Répétons-le, la perception fait preuve d'intelligence, on ne peut
en donner de modèles simples, il faut l'envisager comme un ensemble de
mécanismes complexes en interaction, comme cette «
société d'agents » spécialisés que Marvin
Minsky propose pour modéliser le fonctionnement cérébral.
Le postulat de Gibson a été étendu à l'organisation
perceptive par des psychologues comme Bregman ou Shepard : les règles
qui gouvernent l'identification et les transformations des objets du monde
matériel auraient été incorporées dans les
mécanismes cérébraux au cours de l'évolution, ce
qui expliquerait les concordances entre le monde physique et l'imagerie
mentale. On le voit, l'étude de la perception pose nombre de questions
à la psychologie cognitive.
En tout cas, les points de vue énoncés sur la perception, sa
phylogenèse et son ontogenèse, nous font retrouver un lien entre
notre être intérieur et le cosmos. Shepard (1981) reprend une
question posée par Koffka : « Est-ce que le monde nous
apparaît comme tel parce qu'il est ce qu'il est, ou parce que nous sommes
ce que nous sommes? » A la lumière des considérations
évoquées, on peut répondre : « Le monde nous
apparaît comme tel parce que nous sommes ce que nous sommes »,
mais de plus « nous sommes ce que nous sommes parce que nous avons
évolué dans un monde qui est ce qu'il est. »
Nous aurions donc hérité de l'évolution ces
mécanismes perceptifs élaborés, visant à assurer la
survie dans un monde où les seules évidences étaient
peut-être celles du désir, de la faim et de la peur. Ils sont
inscrits dans notre patrimoine génétique, ils forment le substrat
de nos possibilités cognitives. Ils se trouvent aujourd'hui mis à
contribution, jouant à vide, gratuitement, dans la perception de la
musique - occupation désintéressée, luxe d'un monde
sûr, dominé par l'homme, qui s'absorbe dans le jeu superflu de ses
schèmes perceptifs - « plaisir délicieux d'une occupation
inutile » [16], Dans l'écoute musicale, les fonctions
originaires de l'audition - alerte, reconnaissance des sources - fonctionnent
sans nécessité vitale, mais il se peut qu'un manque fondamental
soit ressenti si les mécanismes complexes de l'audition ne sont pas
suffisamment sollicités.
Selon Leonard Meyer, la jouissance de l'écoute naît de la recréation mentale de formes au sein d'un univers sensible. Il n'y a pas de sens premier
à ce jeu perceptif, à cet accomplissement de la perception,
absorbée dans son propre fonctionnement : c'est la disposition de
l'auditeur qui peut mettre l'accent sur tel ou tel aspect potentiel
cérébral, sensoriel, émotif ou connotatif [17].
Bien sûr, les jugements musicaux ne dépendent pas uniquement des
configurations sonores objectives, mais aussi de l'auditeur, de son
passé, de son attitude, de la fonction qu'il assigne à la musique
au moment de l'écoute. Les systèmes musicaux sont certes
ancrés dans la « nature » : les propriétés
des sons et de leur propagation, les caractéristiques de l'audition,
dont les modalités spécifiques sont adaptées comme nous
l'avons vu à la physique du son; mais ils le sont tout autant dans la
« culture » : la tradition musicale, l'ontogenèse et
l'éducation de l'individu. L'acculturation constitue chez l'auditeur des
structures de référence qui affinent et socialisent- et en
même temps calcifient - ses modes de perception musicale. Il faut
évoquer ici certains aspects quasi linguistiques de la perception
musicale.
La perception catégorielle rassemble l'analogique et le
numérique, puisqu'elle assigne à un ensemble continu de variantes
analogues une seule et même catégorie (faisant souvent parti d'un
ensemble fini de catégories prototypes répertoriées).
Lorsque le stimulus varie suivant un continuum, il existe un domaine au sein
duquel il est identifié à cette catégorie : il n'y a pas
de discrimination entre stimuli à l'intérieur de ce domaine,
alors que la différenciation se fait entre stimuli attachés
à des catégories différentes. Il s'agit d'un cas limite,
fréquemment rencontré dans la parole - la prise en
considération des catégories que constituent les phonèmes
d'une langue fait passer de la phonétique, étude physique
de la parole, à la phonologie, étude de sa pratique
linguistique, se bornant aux différences pertinentes vis-à-vis du
langage. Une infinité continue de réalisations physiquement
différentes possible pour un même phonème. Lors de
l'apprentissage de la langue, les cas de différenciation entre
phonèmes sont appris - il serait plus juste de dire que les
différenciations plus fines sont désapprises. Un Français
a du mal à différencier sick et thick; dans une certaine ethnie
africaine, les adultes ne peuvent, à la différence des
nouveau-nés, différencier pa et ba : dans ces deux cas, les
consonnes initiales ne correspondent pas, dans la langue apprise, à des
phonèmes différents.
De façon similaire, un auditeur occidental tend à
interpréter une gamme ou un mode non occidental en termes d'une grille
de lecture chromatique : il « naturalise » les intervalles, les
assimilant à ceux d'une échelle qui lui est familière; il
lui est difficile d'accommoder sa propre grille pour prendre en compte d'autres
échelles de hauteur tonale [18]. Il en va de même pour les timbres,
ou pour les musiques elles-mêmes. On est parfois ahuri de constater la
surdité de certains auditeurs - même musiciens professionnels -
aux différences entre sons ou musiques de certains types,
catalogués sous la même étiquette.
Les musiques nocturnes de Bartok, Metastasis de Xenakis ou une
foule de musiques électroacoustiques iront dans le même tiroir de
« l'étrange » : musique de science-fiction. Nomenclatures,
taxinomies et typologies sont réductrices. L'apprentissage d'un langage,
d'une syntaxe et d'un vocabulaire favorise la perception catégorielle,
qui protège contre les dérives, les glissements, qui rend la
perception plus reproductible mais aussi moins ouverte, qui l'appauvrit, la
spécialise. L'auditeur forme des hypothèses à raison de
ses « catégories » disponibles, il assimile l'inconnu au
connu : pour percevoir la nouveauté, il lui faut accommoder ses
catégories à l'expérience [19]. L'empreinte se fait d'autant
mieux qu'on est plus jeune : mais l'attitude, le degré d'ouverture de
l'auditeur peuvent être déterminants. Le musicien peut tenter de
concentrer l'attention de l'auditeur sur l'innovation, enraciner les nouveaux
modes de jeu en terrain connu, en évitant de disperser l'écoute
par trop de structurations simultanées : les élaborations
rythmiques de Sacre du Printemps de Stravinsky s'inscrivent sur des accords
stables; les objets sonores complexes du piano préparé de Cage
sont soumis à un agencement lâche, aéré.
La perception catégorielle apparaît souvent sous une forme moins
rigoureuse - il peut y avoir discrimination au sein d'une même
catégorie, les continuums peuvent être perçus comme tels,
mais la discriminabilité augmente au voisinage des frontières
d'une catégorie. Hary et Massaro ont montré que c'était le
cas pour le temps d'attaque d'un son ( 1982). Le psychologue George Miller
parle du nombre magique 7 (plus ou moins 2) comme le nombre maximum
d'éléments que nous pouvons mémoriser
immédiatement, qu'il s'agisse de chiffres de lettres, de notes de
musique, en somme, de catégories distinctes. Le nombre de degrés
par octave dans la plupart des échelles musicales est compatible avec
cette donnée : pour structurer efficacement une dimension perceptive, il
est utile de recourir à un petit nombre de catégories (McAdams
& Saariaho, 1985). Le fait qu'une gamme également
tempérée comporte treize au lieu de douze degrés par
octave peut échapper quelque temps à l'attention, même pour
des musiciens avertis. Une série de douze sons est difficile à
mémoriser. Webern introduit souvent des symétries internes : ses
structures sérielles sont ainsi plus perceptibles.
On a trop souvent l'idée que les opérations perceptives
dégagent des éléments - des notes, avec leurs
paramètres : hauteur, durée, intensité, timbre - et que le
cerveau procède à partir de ces éléments à
des opérations cognitives, au niveau desquelles pourrait
apparaître la musique. Cette perspective atomiste est battue en
brèche par d'innombrables observations : il n'est pas justifié de
distinguer hiérarchiquement les sensations élémentaires et
leur combinaison en formes. Merleau-Ponty (1945) critique la notion de
sensation, « la plus confuse qui soit », qui « fausse
toute l'analyse de la perception ». Bregman a montré que le
timbre perçu pouvait être non préalable, mais
conséquence de l'organisation perceptive - deux sons simultanés
peuvent ou non être fusionnés à l'écoute : le ou les
timbres correspondant ne sont pas les mêmes. Le phénomène
de perception catégorielle influence les relations perçues : mais
le fait que tel ou tel paramètre soit ou
non perçu à travers une grille discontinue peut dépendre
du contexte, du mode de présentation, de la conduite de l'attention. Le
fait que certains êtres sonores s'imposent comme catégories peut
dépendre de circonstances sociales [20].
La perception catégorielle joue certainement dans nos
possibilités cognitives un rôle décisif, mais qui demande
à être dosé soigneusement. C'est sur elle que se fondent
les déviations expressives qui interviennent dans
l'interprétation d'une musique : en s'écartant faiblement des
rapports mathématiques de durée correspondant à une figure
rythmique déterminée, on peut donner l'impression que le rythme a
changé de caractère, sans que la figure rythmique ait
changé - la perception « accroche » cette figure rythmique
comme une catégorie susceptible de réalisations physiques
différentes. Si l'on mesure dans des enregistrements « de
référence » les durées des trois temps de valses
viennoises, on trouve entre ces durées notées comme égales
des différences variables mais systématiques, et pouvant
dépasser 50 % : on entend toujours une valse à trois temps, mais
plus ou moins dynamique, enveloppée, rebondissante ou «
chaloupée » (Sundberg, 1983).
Une musique dont la cohérence apparaît mal à l'auditeur
apparaît souvent comme un bruit, sans que la nature physique du signal
soit en cause: il n'y a pas de distinction tranchée entre sons musicaux
et non musicaux, c'est plutôt une saturation de l'information qui
intervient. Suivant le vocabulaire de la théorie mathématique de
l'information, l'agrément d'un message sensoriel suppose que le
débit d'information soit équilibré entre une
pauvreté excessive - la rengaine, trop prévisible - et une
excessive richesse - l'imprévisible, dont la limite est le bruit blanc.
La présence de catégories peut jouer un rôle essentiel pour
réduire l'information à un niveau que nous pouvons
appréhender: elle rend la perception moins vague, plus affinée,
plus précise, plus apparentée aussi à celle d'autres
auditeurs qui partagent le même code, mais aussi moins ouverte, plus
figée, plus conventionnelle [21], La connaissance de l'oeuvre, de
son vocabulaire et de sa grammaire, de ses tournures de style, de ses
conventions, permet d'approfondir l'écoute et d'enrichir l'information
assimilable. Une musique digne de ce nom peut être
réécoutée maintes fois : la perception ne se réduit
pas à des reconnaissances simples et complètes, le plaisir de
l'écoute réside aussi dans la découverte d'articulations,
de mouvements, de formes latentes dans le discours musical.
A moins de croire à des mutations bien hypothétiques, notre sens
de l'ouie se trouve désormais dans une situation étrange : nos
mécanismes auditifs, développés pour interpréter
des sons engendrés mécaniquement, à partir de structures
acoustiques stables et visibles, doivent réagir à des sons
d'origine électrique, correspondant à des structures invisibles
et ductiles. C'est par l'électroacoustique que transite aujourd'hui une
proportion considérable de la musique entendue - par la radio, la
télévision, la cassette, le disque. Même l'enregistrement
d'une musique instrumentale nous donne le plus souvent à entendre des
perspectives sonores agencées en studio et qui ne pourraient exister
sans l'électroacoustique. Le musicien « numérique »
doit ruser et travailler à jouer le jeu de ces mécanismes dans un
domaine - celui du son électrique - où ils n'ont plus cours
[22].
Pour le musicien « numérique », se fier uniquement
à l'oreille intérieure, c'est borner son horizon à un
champ déjà exploré, repéré, quadrillé
- ou alors c'est accepter d'avance, inconditionnellement, les
métamorphoses inconnues qui feront de la stipulation écrite,
« transmuée » par la très singulière
correspondance psychoacoustique, une construction sonore qui n'est pas vraiment
prévue, maîtrisée, « entendue ». Un certain
compositeur, prétendant ne pas s'intéresser au timbre, à
l'incarnation sonore de ses compositions, avait écrit pour ordinateur
des clusters de fréquences pures séparées par des
intervalles microtonaux : à l'écoute, on entendait comme
d'énormes flonflons, nullement prévus par l'écriture et
dus aux battements que l'oreille engendre nécessairement dans ce genre
de situation. Une logique purement combinatoire, méconnaissant les
singularités, les lignes de force du champ perceptif, serait quelque peu
schizophrénique, sans ancrage dans le réel sensible. Heureusement
le domaine de prévision, l'oreille intérieure peuvent s'enrichir
à la fois d'un savoir-faire « communautaire » sur la
perception auditive (disponible sous plusieurs formes : traités,
catalogues de sons balisant certaines régions, peut-être
bientôt systèmes experts) et d'une expérimentation
personnelle, encouragée par des programmes comme ESQUISSES de David
Wessel et Bennett Smith [23].
Une façon de jouer le jeu de mécanismes auditifs adaptés
aux sons d'origine mécanique est de simuler électroniquement des
mécanismes vibratoires pour produire électroacoustiquement les
sons correspondants. Ainsi peut-on espérer « accrocher »
l'attention de l'oreille en lui proposant des sons structurés suivant
des modes auxquels elle serait particulièrement attentive. Cela suppose
une technologie électronique - en fait, informatique - suffisamment
développée, et une connaissance - une science - de ces processus
physiques suffisamment développée pour donner lieu à des
modèles fructueux. La simulation permettra justement d'éprouver
la pertinence de ces modèles, qui doivent être suffisamment
élaborés pour que l'imitation soit convaincante. Mais alors, on
peut expérimenter les variations des paramètres au-delà de
ce qui est possible dans le monde réel: une erreur même dans la
définition de ces paramètres risque de donner lieu à des
sons nouveaux mais propres à faire jouer les mécanismes auditifs
tentant de remonter à la genèse du son.
Ainsi, en 1963, Max Mathews, John Kelly et Carol Lochbaum ont fait chanter
l'ordinateur: la voix était produite par simulation du conduit vocal, et
la simulation commandait les déformations du conduit correspondant
à l'articulation. Si cette voix gardait un accent électrique, c'était moins à cause du principe de synthèse
que du manque de détails et de souplesse dans la conduite des mouvements
simulés [24]. En 1969, Pierre Ruiz a étudié le mouvement de
la corde frottée du violon en chargeant l'ordinateur de résoudre
les équations différentielles régissant ce mouvement
[25]. Il a pu élargir le domaine des sons de type cordes
frottées en procurant au modèle des paramètres non
réalistes, par exemple en supposant que la corde avait une raideur
négative. Depuis 1973, Claude Cadoz et ses collaborateurs de l'ACROE,
à Grenoble, ont fait de la simulation de mécanismes physiques
l'un des axes de leur recherche : leur démarche vise à terme la
conception d'outils de création nouveaux, tirant parti des ressources de
l'informatique mais prenant en compte l'ontogenèse perceptive, qui
serait en fait sensori-motrice, liée à l'expérience
instrumentale [26]. Ce point de vue prolonge et étend celui de
Gibson, qui déjà envisageait le rôle des mécanismes
« proprioceptifs », ceux par lesquels on perçoit sa
position ou l'effet de ses propres actions; il étend à la musique
la théorie « motrice » de la perception de la parole,
suivant laquelle les sons parlés sont identités moyennant la mise
en jeu implicite et muette, chez l'auditeur, des mécanismes de phonation
pour mimer la production de la phrase entendue (Flanagan, 1972). L'ACROE a
déjà simulé nombre de processus : cordes frottées,
frappées ou pincées, chocs et rebonds, produisant non seulement
le son résultant, mais aussi l'image animée des objets
simulés et même, à l'aide de « transducteurs
gestuels rétroactifs », les réactions m&eacu
te;caniques que peut apprécier le toucher. Il y a là une
tentative trcs intéressante de simulation de l'environnement sensible,
symétrique de celles qu'effectue l'intelligence artificielle lorsqu'elle
simule le sujet qui perçoit, et prenant en compte plusieurs sens : voie
royale pour aborder l'étude difficile mais prometteuse des relations
entre modalités sensorielles [27].
Même pour le son seul, la simulation physique constitue une voie
très prometteuse, qui se développe ici et là, avec les
travaux de Gabriel Weinreich, Jean-Marie Adrien, Xavier Rodet et
Jean-François Baisnée, Antoine Chaigne, Julius Smith; elle
suppose cependant une expertise exigeante, et elle demande une quantité
de calculs impressionnante (ce problème s'estompe avec le
développement de la microélectronique : les « puces
» numériques sont de moins en moins chères et de plus en
plus puissantes). Mais le procédé devrait donner lieu à
des résultats efficaces, en permettant de faire varier des
caractéristiques du monde physique à même d'aiguiser la
vigilance de l'ouie. Et la perspective de pouvoir confronter nos
mécanismes perceptifs avec un monde simulé qui aurait des lois
physiques différentes n'est-elle pas fascinante?
Lorsqu'on ne s'adresse qu'à l'oreille, l'illusion pourra fonctionner si
on ne préserve que les aspects du son auditivement pertinents, sans
vraiment simuler le mécanisme de façon fidèle. Ainsi
peut-on entendre dans Silicon Valley Breakdown de David Jaffe des
arpèges dont on jurerait qu'ils ont été produits par un
plectre grattant des cordes : en fait, ils ont été
synthétisés à l'aide d'un singulier processus de
réinjection développé par Strong, Karplus et Smith, qui ne
simule pas véritablement le fonctionnement de la corde pincée,
mais qui reproduit les caractéristiques acoustiques dominantes de sa
décroissance (Jaffe & Smith, 1983). Au lieu de chercher à démarquer la genèse du
son à imiter, on peut s'attacher à n'en simuler que les traits
perceptifs significatifs. (Il faut signaler à ce propos les recherches
entreprises par Freed et Martens, dans le droit fil de la perspective
gibsonienne). Un exemple : le détournement du violon électronique
de Max Mathews. Ce violon comporte un archet et une corde mécanique,
mais la vibration de la corde est transformée en vibrations
électriques, et l'effet des résonances de la caisse est
remplacé par celui d'un ensemble de filtres électroniques
simulant ces résonances. J'ai suggéré à Max de
remplacer ces filtres par un circuit simulant la propriété
caractéristique des sons cuivrés évoquée ci-dessus
: on peut alors obtenir, en frottant l'archet, des sons évoquant
irrésistiblement la trompette! Les indices perceptifs prennent ici le
pas sur la facture mécanique du son.
Dans l'expérience qui vient d'être décrite, les
causalités acoustiques traditionnelles sont altérées. La
synthèse permet aussi de faire surgir un monde sonore purement illusoire
: « phénochant sans génochant », aurait dit Roland
Barthes. Faux- semblant, duperie? Le legato du piano est un trompe-l'oreille,
disait déja Schumann. Conférer à un son l'identité
apparente du piano ou de la trompette, alors qu'il est synthétisé
par un processus sans rapport avec le fonctionnement physique de ces
instruments, c'est si l'on veut un maquillage acoustique. Mais le maquillage
n'est-il pas un ingrédient essentiel de la représentation? Par
nature, l'art n'est-il pas un mirage, un artifice? A ceux qui
reprochaient au drame chorégraphique (La dame aux camélias)
d'être trop convenu, Serge Lifar répliquait qu'il fallait
aller à l'hôpital, pas a l'opera, pour voir vraiment mourir
Marguerite. Les acteurs mâles du Kabuki ont si belle apparence que des
spectateurs peuvent en tomber amoureux, comme les auditeurs des «
sopranos » dont John Chowning a créé les voix - ce ne sont
pourtant les voix de personne, elles sont à la lettre
désincarnées, de même que les voix suspendues qui
répondent au baryton présent sur scène dans Aber die
Namen de Gerald Bennett. Jeu présence-absence, contacts sensibles
entre l'écho sonore d'un monde réel et la suggestion acoustique
d'un univers immatériel : cet univers peut se confondre avec le monde
physique, mais il prend naissance dans nos perceptions. Purement illusoire,
ancré non dans le corps sonore mais dans le corps de l'auditeur, dans la
chair de l'organisation perceptive, il peut être plus prégnant que
le monde réel, dans la mesure où il fait jouer à plein nos
opérations perceptives, sensibles et cérébrales à la
fois, susceptibles d'impliquer nos préoccupations les plus actuelles
aussi bien que des mécanismes archaiques, originaires. Les simulacres
peuvent avoir de vrais pouvoirs.
Bien entendu, la maîtrise de nouveaux moyens de synthèse ne vise
pas seulement à copier ce qui existe, à faire du faux bois en
plastique. La plasticité du nouveau matériau ouvre d'autres
voies, comme le plastique l'a fait pour la sculpture, des expansions de
César aux flexibles de Lillian Schwartz ou Keith Sonnier. Le jeu sur les
opérations perceptives ne se borne pas à donner le change,
à faire croire réel un monde-contrefaçon. La nouvelle ductilité du matériau
appelle d'autres agencements : ces agencements, dans la mesure où ils
portent sur de nouvelles données, échappent souvent à la
conscience claire. Dans ma pièce Chute (19G8), la forme est
agencée en fonction de parcours d'occupation de l'espace spectral
(Cogan, 1984, pp. 108-112); c'est le cas aussi dans Inharmonique (1977) et
Songes (1979), où elle est liée en même temps à la
dialectique fusion-dispersion (Lorrain, 1980). Dans Stria (1977), John Chowning
recourt à des textures inharmoniques composées de façon
à se mélanger sans frottement, à
s'interpénétrer sans obstruction, dans la mesure où elles
sont agencées suivant les degrés d'un mode de hauteurs
approprié : la structure interne au son commande ici l'échelle,
comme l'avait suggéré John Pierce (1966), et la forme de la
pièce dérive elle aussi des proportions internes du son. Les
commentaires judicieux que donnent de Stria Pierre Boulez (dans les cassettes
IRCAM - Radio France sur le temps musical) ou Philippe Schoeller (1986) ne
mentionnent cependant pas cette structuration, qui agit de manière
interne, organique (on ne voit pas les organes). Sans doute peut-on
ménager des modes d'articulation plus explicites, plus évidents.
On trouve au niveau de la forme comme au niveau du son la distinction entre des
organisations qui s'imposent immédiatement à la conscience, lors
d'une saisie « préconsciente » ou «
pré-attentive » (Julesz, 1985), et d'autres qu'il faut scruter,
analyser, vérifier par un effort conscient.
L'univers illusoire se dissipe comme crève une bulle de savon dès
qu'on cherche à scruter les coulisses de la représentation. Mais
la féerie du spectacle ne réside pas derrière la
scène. Et rien n'empêche en principe l'auditeur passif de ces
mirages acoustiques de les faire renaître lui-même, voire de leur
donner la forme qu'il lui plaira de leur imposer. Il lui faut pour cela entrer
dans le jeu du musicien, prendre sa place, ce qui suppose bien sûr - pour
l'instant - un investissement considérable, intellectuel autant que
matériel [28].
La finesse du numérique ouvre de nouveaux territoires. L'informatique
permet au compositeur d'englober dans une même démarche le travail
sur les sons isolés et en contexte, de faire jouer non seulement le son
- la note - dans le temps, mais aussi le temps dans le son, de composer le son
lui-même. Au sein des possibilités sans limites de la
synthèse, les cartes d'espaces de timbre établies par John
Grey et David Wessel peuvent servir d'aide à la navigation [29] -
en fait, le musicien explorant un domaine de l'océan sonore peut
établir luimême ses propres cartes, qui dégagent les
dimensions saillantes des différenciations subjectives qu'il
opère entre divers timbres de ce domaine. Dans le même ordre
d'idées, l'ordinateur peut permettre l'élaboration de divers
outils d'aide à la composition, et la mise à l'épreuve du
pouvoir structurant de diverses techniques rédactionnelles; les
techniques d'analyse multidimensionnelle peuvent donner des
représentations spatiales imageant les relations qu'apprécie la
perception. On peut ainsi envisager des « outils de création
», qui aideraient à rapprocher les rôles du créateur, de l'interprète et de
l'auditeur (cf. ci-dessus [28]).
Il faut bien sûr se garder de tout optimisme béat, de tout
scientisme crédule. Le progrès n'est pas une catégorie
esthétique, et la fuite en avant n'est pas une démarche
assurée. Joseph Weizenbaum insiste sur le caractère
réducteur de l'intelligence artificielle et de ses simulations. A eux
seuls, ni l'ordinateur ni la science de la perception ne peuvent
résoudre les problèmes musicaux : d'ailleurs cette science est
à développer, et les musiciens doivent y contribuer comme ils
l'ont fait récemment de façon si vigoureuse [30]. Mais la
musique ne peut refuser les acquis scientifiques et techniques de son temps,
elle doit être présente, sans se conformer aux pentes sociales :
son rôle peut être exemplaire et critique. Un nouveau défi
lui est jeté avec l'avènement de l'ordinateur.
Michel Serres observe qu'un organe - ou une fonction - invente chaque fois
qu'il est libéré d'une obligation. La mémoire sonore a
été libérée par la notation; puis par
l'enregistrement; enfin par le recours à l'ordinateur, qui permet
d'accéder séparément aux paramètres, aux gestes,
aux profils, aux structures, et de les agencer en un nouveau contrepoint.
Peut-être, grâce à ses calculs parallèles, son
traitement de la complexité, l'ordinateur - non pas objet technologique,
mais cristallisation de savoirs et de savoir-faire - nous aidera-t-il à
dépasser les modèles linéaires, qui méconnaissent
les limites, à mettre en marche une « société
d'agents » à notre mesure : nous pourrions en faire un partenaire
sans précédent, raffiné, convivial, et pas seulement un
auxiliaire inadéquat, un esclave bon à mouliner des algorithmes
aveugles. Le savoir perceptif ne doit pas rester lettre morte : sans parler des
systèmes experts qui le rendront peut-être plus accessible, il
doit être « reifie » dans les capteurs, les «
accès » aux appareils, inscrit dans les programmes, les
commandes, les modes de communication avec les machines. L'enjeu dépasse
la musique [32]. Nous n'en sommes qu'au début de nos tractations avec
l'informatique, il nous faut tenter d'instaurer avec les ordinateurs des
relations harmonieuses, une synergie heureuse : la musique doit montrer
l'exemple et le chemin, sensible toujours à nos perceptions et critique
de toute théorie préconçue ou définitive. Selon
Michel Serres, « l'ordinateur peut se dire outil universel : instrument
construit et concret sous la main, mais d'application ouverte et
indéfinie comme un théorème » : outil de l'homo
faber, et pas seulement d'un homo sapiens accroché à une
idéologie, à des visions a priori. Les théories
s'étiolent, se fanent, souvent il n'en reste que des amers de la
pensée en marche. Goethe nous le rappelle, seul « l'arbre de la
vie est éternellement vert ».
L'oeuvre existe - même si sa trace est immatérielle - comme une
forme, un système de relations, un agencement objectif. Mais on ne lui
reconnaîtra le statut d'oeuvre d'art que si elle est susceptible de
toucher les profondeurs de l'expérience sensible. Dualité qui
pose problème. Boris de Schloezer (1947) avait tenté de cerner
l'identité de l'oeuvre musicale au travers de multiples réalisations possibles. La
méme question se pose pour les multiples perceptions possibles de
l'oeuvre : faut-il chercher le critère de sa force dans sa structure
intrinsèque, la puissance de ses relations internes, défiant le
temps et son flot d'entropie? Est-elle d'abord un « anti-destin »
[33]? Ou bien estelle par essence éblouissante et fugitive comme la
flamme, n'existe t-elle que perçue, présence
incandescente, « événement de la forme [34] », « feu
des signes » [35]? Dans ce dernier cas, elle dépendrait de la
lumière, de l'éclairage (au sens large), et avant tout du sujet :
c'est lors de sa perception que le système de signes peut s'embraser,
susciter des résonances, mettre sous tension des « réseaux
aperçus ». L'oeuvre faite ne serait alors que promesse,
virtualité, potentiel, un potentiel qui peut ne jamais se «
potentialiser », comme on dit en médecine, qui peut aussi
sommeiller pour être revivifié lorsque les circonstances
favorables apparaissent, comme les graines dans le désert survivent
à des années de sécheresse pour donner lieu dès
l'averse à une éblouissante floraison.
Mikel Dufrenne analyse avec bonheur « la dialectique de l'en-soi et du
pour-nous », opposant Boris de Schloezer, partisan d'une thèse
intellectualiste suivant laquelle l'unité de l'objet musical n'est pas
suspendue à la perception, et Robert Francès, qui pense avec
MerleauPonty que « la forme de l'objet est subordonnée à
la constitution d'une totalité sujet-objet ayant ses lois propres
». Il cite Gisèle Brelet qui confronte de même les points
de vue empiristes et formalistes, montrant que les deux termes sont
inséparables : l'empirisme est encore une esthétique, le
formalisme apporte des révélations sur le sensible sonore.
Écrire implique présupposer un effet, même s'il faut
l'expérimenter, le soumettre ensuite à l'épreuve de
l'écoute, fût-elle intérieure. De l'oeuvre à
naître surgit parfois une idée ramassée, concentrée,
on croit en avoir une perception instantanée, synoptique. Mais de cette
idée l'oeuvre ne sort pas tout armée : il faut inscrire cette
forme dans un temps imaginé qui sera celui de l'écoute. Alors se
déroule, pour déployer l'idée et l'incarner, une longue et
patiente élaboration, un véritable combat avec les contraintes du
matériau, qu'il faut à la fois respecter et dépasser -
expériences, travail de l'écriture, retour de la construction
pensée devenue objet sensible, choc de cet objet avec les schèmes
et les pulsions de l'espace intérieur. Ces tractations laissent des
stigmates dans la trace écrite, composée, et suscitent des
résonances dans la perception, qui tente d'accomplir l'oeuvre en
revivant les mouvements suggérés. Les figures, les formes de
l'art ne sont pas des « patterns » quelconques, définis
comme on le dit souvent par les relations entre leurs parties. Les proportions,
les relations internes sont certes essentielles, mais leur transposition dans
le sensible n'est pas arUitraire, il y a aussi des ancrages absolus,
liés sans doute au corps et aux modalités lui permettant
d'être contemplatif, mais aussi attentif, aux aguets, capable d'une
perception équilibrée, performante, exigeante. La valeur
esthétique d'une musique résiste mal à une dilatation ou
une contraction trop importante : peut-on supporter longtemps d'écouter
une musique deux fois trop vite?
l'oeuvre pourra jouer d'opérations pour invoquer des figurations, des
significations ou des connotations symboliques : leur surgissement chez le
spectateur ou l'auditeur reste contingent. La mise en scène artistique
peut bien les avoir prévues, mais son fonctionnement, son
efficacité à cet égard suppose nombre d'ingrédients
- présentation adéquate, communalité sufhsante du code,
fraîcheur et disposition du sujet à revivre les mouvements de
l'oeuvre : la présence perçue, vivante, de l'oeuvre n'est jamais
assurée. La musique passe par la perception auditive, elle s'adresse
à la subjectivité : « La beauté est dans l'oeil de
celui qui regarde. » Il n'y a pas deux individus semblables : on peut
craindre que la communication musicale ne soit une chimère [36],
Effectivement, les différences entre auditeurs sont vertigineuses.
On sait que les audiogrammes, qui manifestent la sensibilité de
l'auditeur aux sons de diverses fréquences, varient
considérablement d'un auditeur à l'autre, voire d'un jour
à l'autre chez une même personne. Etudiant la perception de
paradoxes de hauteur sur une population d'environ deux cents personnes
d'origine très diverse (musiciens professionnels, artistes, chercheurs
scientifiques et littéraires, étudiants, d'origine occidentale ou
non), j'ai été stupéfait par leurs différences de
capacités et de stratégies auditives : pour certains couples de
sons, il est vrai inhabituels (Risset, 1971), certaines personnes pouvaient
s'opposer opiniâtrement sur le sens de la différence de
hauteur.
Et pourtant, peu ou prou, la communication musicale fonctionne. Certes, ce qui
comptera pour l'auditeur n'est pas forcément le propos, la
problématique qui ont motivé le créateur pour bâtir
son oeuvre : il peut y avoir peu de rapport entre la production - le niveau
« poiétique », comme dit Jean Molino, et la perception -
le niveau « esthésique » (Nattiez, 1975). Cependant
l'appréciation musicale personnelle n'est pas aussi capricieuse,
ondoyante et diverse qu'on pourrait s'y attendre. Il y a bien sûr au sein
d'une civilisation, d'un micromilieu, des codes, des langages (le langage
tonal) ou, comme dit Gilbert Amy, des normes collectives de l'expression. Il
faut tabler aussi sur le mimétisme, l'aspiration au consensus, la
révérence pour les valeurs établies. Mais surtout, il
existe un fonds commun d'intersubjectivité, qui est heureusement
substantiel, ce qui s'explique dans la perspective écologique. La
perception s'est éprouvée au contact du réel. C'est le
monde physique qui est l'ancrage et la référence de notre
fonctionnement sensoriel, lequel fait appel chez chacun d'entre nous au
même matériau neurologique, aux mêmes opérations
primitives. Nos systèmes sensoriels sont agencés pour donner du
monde une image fiable, rendant compte de sa permanence, de ses invariants :
ils masquent leurs points aveugles, gomment leurs traits trop personnels. Ainsi
existe-t-il une certaine communalité dans nos processus perceptifs et
cognitifs (on l'a vu, la perception est aussi cognition, il n'est pas
fondé ici de distinguer hiérarchiquement deux modalités),
qui n'est due qu'en partie à une acculturation commune. C'est sans doute
de ce fonds commun d'intersubjectivité, issu pour une large part de
l'évolution, des débats millénaires des organismes avec le
monde, que surgissent les archétypes mythiques, dont l'invocation est
nécessaire, suivant François-Bernard Mâche, pour qu'une
oeuvre nous touche profondément; c'est sa présence qui assure que l'oeuvre «
en soi »,structure nouvelle de rapports, objective mais spécifique, puisse revivre
« en moi » [37].
A négliger la perception, on s'expose, on l'a vu, à des
déboires allant jusqu'à l'absurde : l'idée purement
abstraite, une fois plongée dans le sensible, peut ne subsister
qu'altérée, gauchie, ou lointaine, difficile à apercevoir.
L'oeuvre n'est pas seulement un ensemble de relations préconçues,
elle vit aussi, comme le disait Paul Klee, dans le rapport entre deux
systèmes de rapports : il faut éprouver, expérimenter.
Pour autant, l'oeuvre ne se réduit pas à une
expérimentation - Varèse le rappelait, les expériences
doivent être effectuées avant la livraison du produit fini. Mais
l'artisanat sensible de l'artiste, son savoir-faire, ancré dans la
perception, élargit l'habitus perceptif, invente, instaure un nouveau
« savoir-sentir » [38], L'art contemporain s'affirme sans
honte comme un autre mode de connaissance, une pensée autonome, qui
cherche à penser, dit Marc Le Bot, « le plus réel du
réel » : ses formes participent à la fois,
indissolublement, de l'intelligible et du sensible. L'élaboration
artistique originale nous faic apercevoir de nouveaux territoires, des pans du
monde, de nous-même, qui en un sens étaient déjà
là, dans les schèmes de notre pensée et de notre
perception [39] : même incomprises, rejetées, élitaires, les
oeuvres novatrices sont récupérées plus ou moins
tardivement pour marquer de leur empreinte les pratiques les plus profanes.
Coup de chapeau des Pink Floyd dans Ummagumma: « Do you dig it,
Edgard Varèse? » Mondrian n'a jamais été populaire,
mais le décor d'une émission de variétés
télévisées des années 70 plagiait ses abstractions
géométriques. Et l'artiste de pop-art Tom Wasselman aurait pu signer les affiches publicitaires
récentes d'une radio périphérique.
Immanente et transcendante, l'activité créatrice invoque et
vivifie les réseaux perceptifs de façon si intense, si
étendue qu'elle parvient à transgresser, à
réaménager la perception. C'est l'oeuvre d'art qui laisse l'image
la plus durable d'une époque et de son imaginaire sensible. Les oeuvres
novatrices sont le laboratoire du futur, elles préfigurent,
réinstaurent la fraîcheur usée de la perception,
découvrent des modes d'entendre, de voir, de penser et de sentir.
Comment le dire mieux que Marcel Proust dans Le Temps Retrouvé: -
Par l'art seulement nous pouvons sortir de nous, savoir ce que voit un autre de
cet univers qui n'est pas le même que le nôtre, et dont les
paysages nous seraient restés aussi inconnus que ceux qu'il peut y avoir
dans la lune. Grâce à l'art, au lieu de voir un seul monde, le
nôtre, nous le voyons se multiplier, et, autant qu'il y a d'artistes
originaux, autant nous avons de mondes à notre disposition, plus
différents les uns des autres que ceux qui roulent dans l'infini... Ce
travail de l'artiste, de chercher à apercevoir sous de la
matière, sous de l'expérience, sous des mots quelque chose de
différent, c'est exactement le travail inverse de celui que, à
chaque minute, quand nous vivons détournés de nous-même,
l'amour-propre, la passion, l'intelligence, et l'habitude aussi accomplissent en nous, quand ils amassent
au-dessus de nos impressions vraies, pour nous les cacher entièrement,
les nomenclatures, les buts pratiques que nous appelons faussement la vie. En
somme, cet art si compliqué est justement le seul art vivant. Seul il
exprime pour les autres et nous fait voir à nous-même notre propre
vie, cette vie qui ne peut pas s' "observer ", dont les apparences
qu'on observe ont besoin d'être traduites et souvent lues à
rebours et péniblement déchiffrées. »
R. ARNHEIM, 1969, Visual thinking, University of California Press.
F. BACON, 1627/1981, Nouvelle Atlantide, trad.fr., Vrin, Paris.
G. BALZANO, 1986, « What are musical pitch and timbre?», Music Perception 3, pp. 279-314.
J.B. BARRIERE, 1986, «Mutation du matériau, mutation de l'écriture », Inharmoniques 1, pp. 118-124.
J.B. BARRIERE, Y. POTARD & P.-F. BAISNEE, 1985, « Models of continuity between synthesis and processing for the elaboration and control of timbre structure», Proc. of the Intern. Computer Music Conference 1985, Computer Music Association, Berkeley, pp. 193-198.
R. BARTHES, 1972, « Le gain de la voix », Musique en jeu 9, p.62,
J. BAUDRILLARD, 1978, «La précession des simulacres», Traverses 10, pp. 3-37.
G.BENNETT, 1981, «Singing synthesis in electronic music», in Research aspects in singing, Royal Swedish Academy of Music, Stockolm.
H.BERGSON, 1927, Essai sur les données immédiates de la conscience, P.U.F., Paris.
J.BLAUERT & W.LINDEMANN, 1986, « Auditory spaciousness : some futher psychoacoustic analyses », Journal of the Acoustical Society of America 80, pp. 533-542.
M.C. BOTTE (coordiateur), 1987, Psychoacoustique et perception acoustique, Société française d'Acoustique, Paris, à paraître.
P. BOULEZ, 1963, Penser la musique aujourd'hui, Gonthier, Genève
P. BOULEZ, 1966, Relevés d'apprenti, Editions du Seuil, Paris, p 353
P. BOULEZ, 1985, «Quoi? quand? comment?», in Quoi,quand, comment/ La recherche musicale, C. BOURGOIS et IRCAM, Paris, pp. 271-285.
A.S. BREGMAN, 1978, «Auditory streaming : competition between alternative organisations », Perception and Psychophysics 23, pp.391-398.
A. BREGMAN, 1981, «Asking the "what for" question in auditory perception », in M.KUBOVY & J. POMERANTZ (cf. ci-dessous), pp. 98-118.
A.S BREGMAN, 1985, Timbre: cause and effect of auditory organization, Communic. au Séminaire IRCAM sur le timbre
A.S. BREGMAN & J. CAMPBELL, 1971, « Primary auditory stream segregation and perception of order in rapid sequences of tones », Journ. of Experim. Psychol. 89. pp. 244-249.
A.S. BREGMAN & S. PINKER, 1978, « Auditory streaming and the building of timbre », Canadian Journal of Psychol. 32. pp. 19-31.
R. BUSNEL, editor, 1963, Acoustic Behavior of Animals, Elsevier, Amsterdam.
C . CADOZ, A LUCIANI & J.-L. FLORENS, 1981, « Synthèse musicale par simulation de mécanismes instrumentaux et transducteurs gestuels rétroactifs pour l'étude du jeu instrumental », Revue d'Acoustique 59. pp. 279-292.
E.C. CARTERETTE & M.P. FRIEDMAN, 1978, Handbook of Perception, vol. IV: Hearing, Academic Press.
J. CHOWNING, 1971, « The simulation of moving sound sources», journal of the Audio Engineering Soriety 19, pp. 2-6.
J.M. CHOWNING, 1973, « The synthesis of complex audio spectra by means of frequency modulation », Journal of the Audio Engineering Soc. 21, pp. 526-534 (réédité dans Roads & Strawn, 1985)
J.M. CHOWNING, 1980, « The synthesis of the singing voice », in Sound generation in winds, strings, computers, Royal Swedish Academy of Music, Stockholm.
J. CHOWNING & D. BRISTOW, 1986, FM theory and applications. Yamaha Music Foundation, Tokyo, Japan.
T. CLIFTON, 1983, Music as heard: a study in applied phenomenology, Yale University Press, New Haven.
M. CLYNES, editor, 1982, Music, mind and brain, Plenum Publishing Corporation.
R. COGAN, 1984, New images of musical sound, Harvard University Press.
J.E. COHEN, 1962, « Information theory and music », Behavorial Science 7, pp. 137-163.
E. COUCHOT, 1987, Images: de la représentation optique à la simulation numérique, Hermès, Paris (à paraître en décembre 1987).
W.A. CROZIER & A.J. CHAPMAN, editors, 1984, Cognitive processes in the perception of art, Elsevier, North Holland.
J.E. CUTTING & B.S. ROSNER, 1974, « Categories and boundaries in speech and music », Perception and Psychophysics 16, pp. 564-570.
C. DELIEGE, 1984, Les fondements de la musique tonale, J.-C. LATTES.
L. DEMANY & F. ARMAND, 1984, « The perceptual reality of tone chroma in early infancy », Journal of the Acoustical Society of Amerira 76, p. 57
D. DEUTSCH, editor, 1982, The psychology of music, Academic Press.
C. DODGE & T.A. JERSE, 1985, Computer music; synthesis, composition and performance, Schirmer Books, New York.
WJ. DOWLING & D. HARWOOD, 1986, Music cognition, Academic Press.
M.E. DUCHEZ, 1985, L'évolution scientifique de Ia notion de matériau musiral, C.N.R.S., à paraître.
H. DUFOURT, 1985, « L'ordre du sensible », in Quoi, quand, comment/La recherche musicale, C. BOURGOIS & IRCAM, pp. 223-239.
M. DUFRENNE, 1953, Phénoménologie de l'expérienre esthétique, P.U.F., Paris.
G. DUTHUIT, 1962, Le feu des signes, Skira, Genève.
D. EHRESMAN & D.L. WESSEL, 1978, Perception of timbral analogies, Rapport IRCAM n° 13.
P. EKMAN & al., 1983, « Emotions distinguished from autonomic nervous System activity», Science 221, pp. 1208-1210.
R. ERICKSON, 1975, Sound structure in music, Univ. of California Press
M. FANO, 1986, « Les images et les sons», Inharmonique, 1, pp. 182-187.
J.l. FLANAGAN, 1972, Speech analysis, synthesis and perception. Academic Press.
H. FLETCHER, 1969, « The ear as a measuring instrument », Journ. of the Andio Engineering Society 17, pp. 532-534.
R. FRANCES, 1958/1972, La perception de la musique, Vrin, Paris.
D.J. FREED & W.L. MARTENS, 1986, « Deriving psychophysical relations for timbre », Proceedings of the International Computer Music Conference, Computer Music Association, San Francisco, pp. 393-405.
JJ. GIBSON, 1966, The senses ronsidered al perreptual systems, Houghton Mifflin Company, Boston.
J.M. GREY, 1975, An exploration of musical timbre, Doctoral Dissertation, Stanford, Calif.
M GREY, 1977, « Multidimensional perceptual scaling of musical timbres », Journ. of the Acoust. Soc. of America 61, pp. 1270-1277.
J.M. GREY, 1978, « Timbre discrimination in musical patterns », Journ. of the Acoust. Soc. of America 64, pp. 467-472.
A. GROSSMAN, R. KRONLAND & J. MORLET, 1987, Analysis of sound patterns through wavelet transforms », Intern. Journal of Pattern Recognition and Artific. Intelligence 1, n°2, pp. 273-302.
J.M. HARY & D.W. MASSARO, 1982, « Categorical results do not imply categorical perceptions », Perception and psychophysics 32, pp 409-418.
S. HAYNES, 1979, The musician-machine interface in computer music. Doctoral Dissertation, Univ. of Southampton, England.
Y. HELLEGOUARCH, 1983, Scales, C.R. Math. Rep. Acad. Sci. Canada 4, n° 2.
H. HELMHOLTZ, 1877/1954, On the sensation of tone, Dover, New York.
M. HENRY, 1987, La barbarie, Grasset, Paris.
L.A. HILLER & P. RUIZ, 1971, « Synthesizing musical sounds by solving the wave equation for vibrating objects », Journal of the Audio Engineering Society 19, pp. 463-470.
W.H. HUGGINS, 1952, « A phase principle for complex-frequency analysis and its implication for auditory theory », Journal of the Acoustical Society of America 24, pp. 582-589.
W.L. IDSON & D.W. MASSARO, 1978, « A bidimensional model of pitch in the recognition of melodies », Perception and psychophysics 24, pp. 551-565.
M. IMBERTY, 1979, Entendre la musique, Dunod, Paris.
D. JAFFE & J. SMITH, 1983, « Extensions of the Karpus-Strong, plucked-string algorithm », Computer Music Journal 7, n° 2, pp. 56-69.
B. JULESZ, 1981, « Figure and ground perception in briefly presented isodipole structures », in KUBOVY & POMERANTZ (cf. ci-dessous), pp. 27-54.
B. JULESZ, 1985, « Preconscious and conscious processes in vision », Pontificiae Academiae Scientiarum Scripta Varia 54.
J.R. JULLIEN, 1982, Acoustique des salles, prise et restitution du son, analysées à partir de la notion de canal acoustique, Note technique du CNET, NT/ LAA/TSS/ 128.
A. KIRCHER, 1650/1970, Musurgia Universalis, Olms, New York.
P. KLEE, 1924, Conférence d'Iéna, cité par W. Grohman, Paul Klee. trad. fr., Paris, 1954.
K. KOFFKA, 1935, Principles of Gestalt psychology, Harcourt, Brace and World, New York.
W. KÖHLER. 1910/1911/1915, « Akustische Untersuchungen », Zeits Psyhol., pp. 54, 58 et 72.
M. KUBOVY & J.R. POMERANTZ, editors, 1981. Perceptual organization, Erlbaum, Hillsdale, N.J.
M. LE BOT, 1977, Figures de l'art contemporain, 10/18, Paris
E. LEIPP, 1971/1984, Acoustique et musique, Masson, Paris.
Y. LEROY, 1979, L'univers sonore animal, Gauthier-Villars, Paris
E.R. LEWIS, 1987, «Speculations about noise and the evolution of vertebrate hearing », Hearing Research 25, 1987, pp.83-90.
D. LORRAIN 1980, Analyse de la bande d'Inharmonique, Rapport IRCAM n°26, Paris.
S. McADAMS, 1982, « Spectral fusion and the creation of auditory images », in M. CLYNES, editor, Music, mind and brain : the neuropsychology of music, Plenum Press, New York.
S. McADAMS & A.S. BREGMAN, 1979, « Hearing musical streams » Computer Music Journal 3, n°4, pp. 26-43
S. McADAMS & K. SAARIAHO, 1985, « Qualities and functions of musical timbre », Proc. of the Intern. Computer Music Conference 1985. Computer Music Association, Berkeley, pp.367-374.
F.B. MACHE, 1983, Musique, mythe, nature, Klincksieck. Paris
T. MACHOVER, coordinateur, 1984, L'IRCAM: une pensée musicale. Edition des archives contemporaines, Paris.
J. MANDELBROJT, 1969; L'abstrait et le réel, Leonardo, 2, pp. 117-125.
J. MANDELBROJT, 1977, La genèse d'une peinture, J.P. Collot. Aix-en-Provence.
J. MANDELBROJT & P. MOUNOUD. 1971, On the relevance of Piaget's theory to the visual arts, Leonardo, 4, pp. 155-158.
P. MANOURY, 1984, « La part consciente », in Machover, pp. I57-166
D. MARR, 1982, Vision, Freeman, San Francisco.
M.V. MATHEWS, 1969, The technology of computer music, M.I.T. Press.
M.V. MATHEWS & C. ABBOTT. 1980. « The sequential drum, Computer Music», Journal 4, n°4, pp.45-60.
M.V. MATHEWS & J. KOHUT, 1973, « Electronic simulation of violin resonances », Joorn. of the Acoust. Soc. of America 53, pp. 1620-1626.
M.V. MATHEWS & J.R. PIERCE, 1980, « Harmony and nonharmonic partials », journ. of the Acoust. Soc. America 68, pp. 1252-1257.
M. MERLEAU-PONTY, 1944, Phénoménologie de la perception, Gallimard, Paris.
L.B. MEYER, 1956, Emotion and meaning in music, University of Chicago Press.
L.B. MEYER, 1957, « Meaning in music and information theory, Journal of Aesthetic and Art Criticism 15, p. 412.
E. MEYER & G. BUCHMANN 1931. Die klangspektren der Musikinstrumente, Berlin.
H. MICHAUX, 1987, Affrontements, Gallimard, Paris.
G.A. MILLER, 1956, « The magical number seven; plus or minus two : some limits on our capacity for processing information », Psychological review 63, pp. 81-97.
M. MINSKY, 1981. « Music, mind, and meaning », Computer Music Journal 5, pp. 28-44.
M. MINSKY, 1986, The society of mind, Simon & Schuster, New York.
A. MOLES, 1958, Théorie de 1'information et perception esthétique, Flammarion, Paris.
B.C. J. MOORE 1982 An introduction to the psychology of hearing, Academic Press, London.
J A. MOORER, 1977, « Signal processing aspects of computer music », Proc. 0f the IEEE 65, pp. 1108-1137 (réédité dans Roads & Strawn, 1985).
D. MORRILL, 1977, « Trumpet algorithms for music composition », Computer Music Journal 1, n° 1, pp. 46-52 (réédité dans Roads & Strawn, 1985).
Music Perception, revue trimestrielle depuis 1983, Univ. of California Press.
Musique contemporaine, comment l'entendre, 1985, Esprit, numéro spécial.
J.J. NATTIEZ, 1975, Fondements d'une sémiologie de la musique, 10/18, Paris
H.F. OLSON, 1952/19G7, Music, physics & engineering, Dover, New York.
J. PIAGET, 1961, Ies mécanismes perceptifs, P.U.F., Paris.
J.R. PIERCE, 1966, « Attaining consonance in arbitrary scales », Journ. of the Acoust. Soc. of Amerira 40, p. 249.
J.R. PIERCE, 1984, Le son musical (avec exemples sonores), Pour la Science/ Belin, Paris.
R. PLOMP, 1976, Aspects of tone sensation, Academic Press.
O. REVAULT D'ALLONNES, 1973, La création artistique et les promesses de la liberté, Klincksieck, Paris.
J.C. RISSET, 1964, « Musique, électronique et théorie de l'information », L'Onde électrique 451, pp. 1055-1063.
J.C. RISSET, 1966, Computer study of trumpet tones (avec exemples sonores), Bell Laboratories, Murray Hill, N.J.
J.C. RISSET, 1968, « Sur certains aspects fonctionnels de l'audition », Annales des Télécommunication 23, pp. 91-120.
J.C. RISSET, 1969, An introductory catalog of computer synthesized sounds (avec exemples sonores), Bell Laboratories, Murray Hill, N.J.
J.C. RISSET, 1971, Paradoxes de hauteur, Actes du 7e Congrès international d'Acoustique, Budapest (et Rapport IRCAM n° 10, avec exemples sonores, 1978).
J.C . RISSET, 1973, « Sons », Encyclopedia Universalis 13, pp. 168-171.
J.C. RISSET, 1977a, « Hauteur et timbre des sons », Revue d'Acoustique 42, pp. 263-268 (et Rapport IRCAM n°11, avec exemples sonores, 1978).
J.C. RISSET, 1977b, « Musique, calcul secret? », Critique 359, pp. 414-429.
J.C. RISSET, 1978, « Musical Acoustics » , in E.C. CARTERETTE & M.P. FRIEDMAN, editors, Handbook of Perception, vol. IV, Hearing, Academic Press, pp. 521-564.
J.C.. RISSET, 1985a, « Le compositeur et ses machines de la recherche musicale? », in Musique contemporaine, pp. 59-76.
J.C. RISSET, 1985b, « Digital techniques and sound structure in music », in Roads, pp. 113-138.
J.C. RISSET, 1985c, « Musique et perception », in Quoi, quand, comment/ La recherche musicale, C. Bourgois & IRCAM, Paris, pp. 211-219.
J.C. RISSET, 1986, « Timbre et synthèse des sons », Analyle musicale 3, pp 9-20.
J.C. RISSET, 1986, « Aspects de la perception du temps en musique », Bulletin d'Andiophonologie 2 NS n° 4, pp. 261 -278.
J.C. RISSET, 1986, « Pitch and rhythm paradoxes: Comments on "Auditory paradox based on a fractal waveform " », Journal of the Acoustic Society of America 80, pp. 961-962.
J.C. RISSET & M.V. MATHEWS, 1969, « Analysis of instrument tones », Physics Today 22, n° 2, pp. 23-40.
J.C. RISSET & D.L. WESSEL, 1982, « Exploration of timbre by analysis and synthesis », in Deutsch, pp. 25-58.
C. ROADS, editor, 1985, Composers and the computer, W. Kaufman, Los Altos, Calif.
G. ROUGET, 1980, La musique et la transe, N.R.F., Gallimard, Paris.
P. RUIZ, 1970, A technique for simulating the vibrations of strings with a digital computer, Thesis, University of Illinois, Urbana.
J.-P. SARTRE, 1954 « Ies peintures de Giacometti », Les temps modernes, n° 103, pp. 347-363.
P. SCHAEFFER, 1966, Traité des objets musicaux (avec exemples sonores>, Éditions du Seuil, Paris.
A. SCHAEFFNER, 1930, Origine des instruments de la musique, Payot, Paris.
B. DE SCHLOEZER, 1947, Introduction à J.S. Bach, N.R.F., Paris.
P. SCHOELLER, 1986, « Mutation de l`écriture: Éclat, Stria, Désintégrations », Inharmonique 1, 1986, pp. 197-208.
M.R. SCHROEDER, D. GOTTLOB & K.F. SIEBRASSE, 1974, « Comparative study of european concert halls: correlation of subjective preference with geometric and acoustic parameters », Journal of the Acoustical Society of America 56, pp. I 195-1201.
E.D. SCHUBERT, editor, 1979, PsychologicalAcoustics, Dowden, Hutchinson & Ross, Stroudburg (Pennsylvania).
M. SERRES, 1985, Les cinq sens, Grasset, Paris.
R.N. SHEPARD, 1964, « Circularity of relative pitch », Journ. of the Acoust. Soc of America 36, pp. 2346-2353.
R. SHEPARD, 1981, « Psychophysical Complementarity », in Kubovy & Pomerantz (cf. ci-dessus), pp. 279-341.
R.N. SHEPARD & L.A. COOPER, 1982, Mental images and their transformations, M.I.T., Press.
W. SLAWSON, 1985, Sound color, Univ. of California Press.
A. SOURIS, 1976, Condition de la musique et autres écrits, Université libre de Bruxelles et C.N.R.S.
C. STUMPF, 1883/1890, Tonpsychologie, Hirzel, Leipzig.
J. SUNDBERG, 1978, « Synthesis of singing », Swedish Journ. of Musicology 60, pp. 107-112.
J. SUNDBERG, 1982, « Speech, song and emotions », in M. CLYNES, 1982
J. SUNDBERG, editor, 1983, « Studies of music performance », Pub1ications of the Royal Swedish Academy of Music, Stockholm, n° 39.
J.C. TENNEY, 1965, The physical correlates of timbre, Gravesaner Blätter 26. pp. 106-109.
J.C. TENNEY, 1985, « Review of Music as heard: a study in applied phenomenology », by Thomas CLIFTON, Journal of Music Theory 29, pp. 197-213.
E. TERHARDT, 1974, « Pitch, consonance and harmony », Journ. of the Acoust. Soc. of America 55, pp. 1061-1069.
R. THOM, 1974, Modèles mathématiques de la morphogenèse, 10-18, Paris.
S. TURCKLE, 1984, The second self, Simon & Schuster, New York.
L.P.A.S. VAN NOORDEN, 1975, Temporal coherence in the perception of tone sequences, Institute for Perception Research, Eindhoven, Hollande.
E. VARÈSE, 1983, Écrits, C. Bourgois, Paris.
B. VERCOE, 1985, « The synthetic performer in the context of live performance », Proceedings of the 1984 International Computer Music Conference, Computer Music Association, Berkeley, pp. 199-200.
G. WEINREICH, 1981, « Synthesis of piano tones from first principles », Jourrnal of the Acoultical Society of America 69, p. 588.
J. WEIZENBAUM, 1976, Computer power and human reason, Freeman, San Francisco.
D.L. WESSEL, 1978, Low dimensional control of musical timbre, Rapport IRCAM n° 12 (avec exemples sonores), Paris.
D.L. WESSEL, 1979, « Timbre space as a musical control structure », Computeur Music Journal 3, n°2, pp. 45-52.
D.L. WESSEL & J.C. RISSET, 1979, Les illusions auditives, Universalia (Encyclopedia Universalis), pp. 167-171.
E.ZWICKER & R. FELDTKELLER, 1981, Psychacoustique, Masson, Paris.
____________________________
Server © IRCAM-CGP, 1996-2008 - file updated on .
____________________________
Serveur © IRCAM-CGP, 1996-2008 - document mis à jour le .