IRCAM - Centre PompidouServeur © IRCAM - CENTRE POMPIDOU 1996-2005.
Tous droits réservés pour tous pays. All rights reserved.

Les chemins de la composition musicale

Iannis Xenakis

in Le compositeur et l'ordinateur, Ircam, Paris, 17-21 février 1981
Copyright © Ircam - Centre Georges-Pompidou 1981, 1999


Les univers musicaux, qu'il s'agisse de la musique classique, contemporaine, pop, folklorique, traditionnelle, d'avant-garde, etc..., semblent former des unités autonomes, parfois closes, parfois intercommunicantes. Ils présentent de surprenants caractères de diversité qui expliquent qu'ils soient riches en créations nouvelles, mais aussi en fossilisations, en ruines et en étendues désertes et tout cela est perpétuellement en formation et en transformation comme les nuages, les univers musicaux sont différenciés et éphémères.

Ceci s'explique par le fait que la musique est un phénomène socio-culturel ; en conséquence, elle est liée à une période donnée de l'histoire. Néanmoins, il est possible d'y distinguer des parties plus stables que d'autres ; celles-ci constituent des matériaux plus ou moins durs selon l'époque de civilisation d'où ils proviennent ; des matériaux qui se déplacent dans l'espace, qui sont créés, lancés, poussés par des courants d'idées, qui se heurtent, s'influencent, s'annihilent ou se fécondent les uns les autres. Quelle est l'essence de ces matériaux ? C'est l'intelligence humaine dans un certain état de cristallisation. Une intelligence qui cherche, questionne, déduit, révèle et prévoit à tous les niveaux. Il semble que la musique et les arts en général doivent nécessairement être une cristallisation, une matérialisation de cette intelligence. Naturellement celle-ci, bien qu'universelle à l'échelle humaine, est diversifiée par l'individu, par le talent, et par tout ce qui rend les hommes différents les uns des autres.

Le talent est donc un état nuancé, ou gradué, de la vigueur et de la richesse de l'intelligence. Fondamentalement, en effet, celle-ci est le produit, l'expression de milliards d'échanges, de réactions, de transformations d'énergie dans les cellules du cerveau et du corps. On pourrait, en prenant l'astrophysique comme image de référence, dire que l'intelligence est la forme prise par les actes minimaux des cellules en condensation ou en mouvement -- tout comme il en va des particules des soleils, des planètes, des galaxies et des amas de galaxies qui sont nés de la froide poussière interstellaire, ou sont revenus à cet état. Néanmoins, cette image doit être inversée, au moins à un certain niveau, parce qu'en se condensant, cette poussière froide devient chaude, contrairement à l'intelligence, qui est le produit froid-véritable « feu froid » -- des échanges entre les cellules chaudes du cerveau et du corps.

Il s'ensuit que la musique est un puissant condenseur, plus puissant peut-être que les autres arts. C'est pourquoi j'ai dressé un tableau de comparaison entre certaines conquêtes de la musique et plusieurs réalisations des mathématiques, telles que l'histoire nous les enseigne (voir Appendice I). Ce tableau montre une des voies que la musique a prise dès ses origines, c'est-à-dire dès l'Antiquité, et qu'elle a fidèlement suivie au cours des millénaires, pour la parcourir de plus en plus rapidement au vingtième siècle -- ce qui prouve que loin d'être une mode, cette faculté de condensation et d'abstraction croissante est un trait fondamental de la musique, un trait qui lui appartient plus qu'à tout autre art. En conséquence, il est clair qu'un nouveau type de musicien est nécessaire, celui de l'artiste-concepteur de nouvelles formes, libres, abstraites et visant à rendre plus complexe et à généraliser l'organisation des sons sur plusieurs niveaux. Par exemple, une forme, une construction, une organisation conçues sur le modèle des chaînes Markoviennes, ou d'après des fonctions de probabilités emboîtées, peut-être utilisée simultanément, à divers niveaux de microcomposition, de mesocomposition et de macrocomposition musicales. D'autre part, il est possible d'étendre cette remarque au domaine visuel, comme le font, pour ne citer que cet exemple, les spectacles de rayons laser et de flashes électroniques du Polytope de Cluny et du Diatope du Centre Georges-Pompidou.

Rien ne nous empêche d'envisager une nouvelle relation entre l'art et la science, notamment entre l'art et les mathématiques, relation dans laquelle l'art poserait des problèmes que les mathématiques devraient et se doivent de résoudre en forgeant de nouvelles théories.

L'artiste-concepteur devra se doter d'une connaissance suffisante en mathématiques, en logique, en physique, en chimie, biologie, génétique, paléontologie (en raison des problèmes que pose l'évolution des formes), en sciences humaines et en histoire, il faut, en bref, non seulement qu'il acquière une sorte d'universalité, mais que celle-ci soit fondée sur les formes et les architectures, guidée par elles, et orientée vers elles. Par ailleurs, il est temps de créer une nouvelle science de « morphologie générale », qui traitera des formes et des architectures de ces diverses disciplines dans leurs aspects invariants, ainsi que des lois qui président à leurs transformations, celles-ci ayant parfois duré des millions d'années.

Cette nouvelle science devrait être constituée à partir des véritables condensations de l'intelligence, c'est-à-dire, à partir d'une approche abstraite, débarrassée des anecdotes dont sont encombrés nos sens et nos habitudes. Par exemple, l'évolution morphologique des vertèbres des dinosaures constitue l'un des documents paléontologiques à verser au dossier d'une science des formes.

Examinons maintenant le système fondamental sur lequel repose l'art. L'art participe du mécanisme déductif qui constitue la base sur laquelle se fondent les théories mathématiques, physiques et biologiques. En effet, les jeux de proportions qui sont réductibles à des jeux de nombres et de mesures dans des domaines tels que l'architecture, la littérature, la musique, la peinture, le théâtre, la danse, etc., les jeux de continuité et de proximité, dans le temps ou hors du temps, les jeux d'essence topologique, enfin, sont tous fondés sur le principe de la déduction. Outre ce principe, et en relation réciproque avec lui, il existe le mode expérimental, pour mettre en question ou confirmer les théories élaborées par les sciences, y compris les mathématiques. (En effet, l'avènement des théories non-euclidiennes et celui de théorèmes comme celui de Gödel ont prouvé que les mathématiques sont elles aussi une science expérimentale, seulement, l'échelle de temps y est beaucoup plus longue que dans les autres sciences). C'est l'expérimentation qui, sans pitié ni respect, fait et défait les théories. Or les arts sont également régis par le mode expérimental, et ce, d'une façon plus riche et plus complexe encore. Certes, il n'existe pas et n'existera sans doute jamais de critères objectifs pour nous permettre de juger, dans l'absolu et dans l'éternité, de la vérité ou de la validité d'une oeuvre d'art, de même que, dans le domaine scientifique, aucune « vérité » n'est définitive ou absolue. Mais à ces deux modes, le mode déductif et le mode expérimental, il s'en ajoute un troisième en ce qui concerne l'art : c'est le mode de la révélation immédiate, qui n'est ni celui de la déduction, ni celui de l'expérimentation. La révélation directe et instantanée du beau touche aussi bien le néophyte que le connaisseur. C'est ce qui fait la force de l'art, et peut-on dire, sa supériorité sur les sciences : évoluant dans les deux dimensions du déductif et de l'expérimental, il possède également cette troisième dimension, la plus mystérieuse de toutes, celle qui fait que les objets de l'art échappent à toute science esthétique tout en pouvant s'abandonner aux caresses des modes déductif et expérimental.

En revanche, l'art ne peut pas vivre uniquement de la révélation. Comme le montre l'histoire de toutes les époques et de toutes les civilisations, l'art a besoin, il a même un besoin impérieux, d'organisation, même aléatoire ; il a donc besoin de la déduction et des confirmations qu'elle apporte, tout comme il a besoin de vérité expérimentale.

De nos jours, les deux modes, le déductif et l'expérimental sont presque toujours associés à l'ordinateur. De même que la roue fut naguère l'une des plus grandes inventions de l'intelligence humaine, un mécanisme qui permettait de voyager plus loin, plus rapidement et avec davantage de bagages, de même aujourd'hui, l'ordinateur permet de transformer les idées conçues par l'homme. C'est par des méthodes heuristiques que l'ordinateur résoud des problèmes logiques. Mais ce ne sont pas vraiment les ordinateurs qui sont responsables de l'introduction des mathématiques dans la musique ; ce seraient plutôt les mathématiques qui mettent l'ordinateur à contribution pour composer. Et pourtant, si les structures mentales sont généralement disposées à admettre l'utilité de la géométrie dans les arts plastiques comme l'architecture, la peinture, etc., il ne leur reste plus qu'une étape à franchir pour admettre qu'on puisse utiliser des mathématiques non visuelles, plus abstraites encore, ainsi que des machines, pour aider à la composition musicale, elle-même plus abstraite que les arts plastiques.

Depuis la deuxième guerre mondiale, l'informatique a envahi à peu près tous les domaines de l'activité humaine. Les arts, et en particulier la musique, n'ont pas échappé à ce raz-de-marée. À partir de 1950, d'abord lentement puis de plus en plus rapidement, l'ordinateur et ses périphériques ont poussé comme des champignons dans les centres d'activité musicale, bouleversant les habitudes des compositeurs beaucoup plus que ne l'avait fait la révolution du magnétophone, qui avait créé la première mémoire sonore permanente et physiquement indestructible, au point que le danger est grand de se laisser prendre au piège de la technique et de se retrouver embourbé dans les sables d'une technologie qui a fait irruption dans les eaux relativement calmes de la théorie de la musique instrumentale. Il existe déjà bon nombre d'essais de composition par ordinateur. Mais quelle est la valeur de ces tentatives ? Du point de vue esthétique, il faut bien reconnaître que les résultats sont maigres, et que l'on s'est abusé en espérant qu'une technologie extraordinaire donnerait des résultats extraordinaires du point de vue esthétique. Rares sont en effet les compositions de ce type qui dépassent les découvertes récentes et nombreuses en matière de musique instrumentale, ou même les premiers balbutiements de la musique électronique a partir de 1950.

Pourquoi ? A mon avis, ces échecs sont dûs à de multiples raisons, mais on peut en distinguer deux principales :

  1. les musiciens qui se servent des ordinateurs sont ignorants des théories d'ordre général, notamment des théories mathématiques, physiques et acoustiques. Leur talent, quand ils en ont, est incapable de pénétrer le domaine vierge où seule l'abstraction pourrait guider leurs expériences ; il en résulte qu'ils n'appréhendent que des ombres ;
  2. les scientifiques qui ont accès à la technologie de l'ordinateur éprouvent une sorte de complexe d'infériorité vis-à-vis de l'esthétique musicale ; et, comme ils n'ont pas eu à se battre sur le terrain esthétique, ils manquent d'expérience et ne savent pas du tout dans quelle direction ils devraient s'engager.

En conséquence, ils jonglent avec des outils mathématiques et avec des gadgets électroniques, sans pour autant que leur production musicale révèle la moindre qualité artistique, et pour cause : ils ne sont pas capables, ils ne sont pas en mesure d'exploiter leur talent éventuel.

Dans les deux cas, il est évident que le talent artistique joue et doit jouer un rôle déterminant.

Pour éviter ces impasses, les solutions ne sont pas moins évidentes : il faudrait que la première catégorie, celle des musiciens, se mette à l'étude des sciences nécessaires, et que la seconde, celle des scientifiques, affronte les problèmes que posent le talent et l'esthétique par une expérimentation constante. Mais cela ne suffira pas. Il me semble que le moment est venu d'essayer de pénétrer plus à fond et en même temps plus globalement ce qui est l'essence de la musique, afin, si c'est possible, de tenter de découvrir les champs de forces qui sous-tendent la technologie et la pensée scientifique autant que la musique.

Je vais maintenant m'efforcer de tracer, parmi toutes celles qui sont possibles, une ligne d'approche, et une seule, qui me paraît extrêmement importante. C'est un fait que la recherche, dans les années à venir, se devra d'aborder simultanément des domaines qui se situent sur des plans différents : de la microcomposition, qui traite de la synthèse du son a partir d'échantillons de durées de l'ordre d'une microseconde (un millionième de seconde) jusqu'à la macrocomposition, qui a pour objet le discours musical d'une durée de l'ordre de l'heure.

Les méthodes et les approches théoriques peuvent être distinctes selon le plan abordé, ou bien elles peuvent être utilisées sur plus d'un plan à la fois. Pour éclairer ce problème, nous allons nous pencher sur deux plans presque extrêmes : la microcomposition et la macrocomposition définies dans les sens donnés ci-dessus. Je vais tenter d'exposer les orientations principales qui m'ont amené par le passé à écrire les compositions citées plus bas, et dont je pense qu'à l'avenir elles pourront servir de tremplin à la recherche et à la composition par ordinateur.

La macrocomposition

  1. Étudier les possibilités de composition à l'aide du programme macroscopique ST(ochastique)(1), en Fortran, dont l'orientation est stochastique et qui utilise des éléments sonores qui sont 1° d'origine orchestrale, 2° dessinés sur l'UPIC(2) et 3° produits grâce aux méthodes et à la théorie de microcomposition (voir description plus loin).
  2. Appliquer la méthode dite de « variation polygonale », qui est un terme que nous avons donné à une série de réalisations sonores et qui, en bref, consiste en la construction graduée d'une courbe de pression modifiée à chaque étape, c'est-à-dire à chaque période, par un procédé stochastique, modification qui porte sur le temps et aussi sur les valeurs de pression de chaque échantillon. Des vérifications acoustiques expérimentales sur ordinateur et sur convertisseur analogique numérique ont montré qu'il apparaissait, pour certaines valeurs de l'outil mathématique, une sorte de résonance probabiliste qui engendre une multiplicité rythmique de timbres, de dynamiques, d'attaques et de macroformes. Les distributions les plus utilisées jusqu'à maintenant ont été les distributions « logistiques » et celles de Cauchy (voir l'Appendice II).
  3. Mettre à l'étude une sorte de « palinfromisation » avec des amplitudes stochastiquement variables ; c'est une variété de la « variation polygonale » qui rend possible, à un degré plus élevé, une modulation de la macroforme précédente.
  4. Explorer les clonages (ou arborescences) de la variation polygonale : étant donné une variation polygonale, un point choisi stochastiquement se trouve engendrer une nouvelle excroissance (une nouvelle variation polygonale) dont les caractéristiques sont définies stochastiquement, et ainsi de suite. Ce processus peut être appliqué à plusieurs « troncs » en même temps. Personnifications à l'orchestre (voir Appendice II).
  5. Se servir des processus Markoviens sur divers plans interdépendants. Par exemple, il est possible d'envisager des nuages (ou configurations) de points, tels que les grains de Gabor(3), ou des grains dessinés par l'UPIC, et de les lier entre eux à l'aide de matrices de probabilité de transitions dans le cas discret, ou à l'aide de la transformation « z » dans le cas continu. On peut ensuite, à leur tour, considérer ces liaisons comme des états et relier ceux-ci par un processus markovien généralement distinct du précédent. C'est pourquoi il nous faut étudier des chaînes contenues les unes dans les autres (voir Appendice II).
  6. Examiner les produits cartésiens d'ensembles de points choisis dans les espaces définis par telle ou telle propriété du son, en prenant pour fil conducteur les structures de groupes finis et infinis. Par exemple, prenons un ensemble de nuages (ou configurations) de points (ou notes) ou de dessins réalisés par l'UPIC, et considérons le produit cartésien de ces points avec ceux d'un espace à trois dimensions (par exemple, intensité, durée, densité), mais en prenant pour modèle le groupe hexaédrique du cube, c'est-à-dire, un sous-ensemble de couples de produits cartésiens dotés des symétries de transformations propres au cube. Cela prendrait place dans l'espace hors-temps. Si l'on se place dans l'espace-temps, on utilisera les relations du groupe hexaédrique en suivant la structure de celui-ci, qui nous est donné par la table du groupe cubique (voir Appendice II) .
  7. Mettre en pratique la théorie des cribles, qui étend la notion d'échelle à tous les ensembles ordonnés tels que ceux des instants, des durées, des intensités, des densités, des degrés d'ordre, etc. et, dans un premier temps, introduire cette théorie dans les précédents domaines de recherche ; dans un second temps, l'étudier pour elle-même, indépendamment (voir Appendice II).
  8. Utiliser les fonctions logiques prélevées sur des ensembles de propriétés d'un son ou sur des ensembles d'ensembles déjà structurés (voir Appendice II : Herma, etc.).
  9. Etudier les possibilités de génération de droites dans l'espace des sons à deux, trois dimensions ou plus, en définissant chaque point par des fonctions de fonctions de probabilités (parcours 4 aléatoire, mouvement brownien) (4)(voir Appendice II).

La microcomposition

En dehors du travail que l'UPIC a fait et est capable de faire, nous sommes actuellement engagés dans une exploration algébrique du domaine de la microcomposition, mais selon des méthodes autres que celles de Fourier (comme, par exemple, Musique V, programme auquel se limitent la plupart des autres laboratoires). C'est cela qui distingue notre travail au CEMAMU. On trouvera ci-dessous un exposé de la question.

La Synthèse du son par d'autres moyens que ceux de Fourier.

L'idée essentielle est fondée sur les deux points suivants :

  1. Un son peut être entièrement représenté par la courbe de pression qui le caractérise en fonction du temps. C'est le seul et unique paramètre que l'oreille perçoit. Il s'ensuit que construire judicieusement de telles courbes (de forme linéaire) revient, en théorie, à fabriquer n'importe lequel des sons souhaités à l'aide de la technique de la conversion numérique/analogique. Cette courbe et le son qui y correspond (la musique) seront considérés comme une entité .
  2. Le principe de répétition, de la duplication plus ou moins fidèle est général ; il fait partie intégrante de la composition musicale sur tous les plans, du microscopique au macroscopique. Au niveau microcospique, par exemple, non seulement l'oreille perçoit les répétitions fidèles, mais elle enregistre également leur densité sous la forme de la hauteur du son. Au niveau macroscopique, des formes telles que le canon, la variation, etc., sont également soumises à ce principe de renouvellement plus ou moins fidèle. Où qu'il se produise, tout évènement est à certains égards unique, isolable et impossible à reproduire exactement en raison des pertes, même très faibles (ne seraient-elles dues qu'au temps écoulé entre l'original et la copie), qui affectent la fidélité d'une éventuelle reproduction. Cependant, avec une « approximation » suffisante, les deux versions peuvent « paraître » identiques (dans le cadre de l'approximation) et former des classes d'équivalence dans lesquelles les éléments restent généralement séparables, tout en étant susceptibles de se fondre dans certains cas particuliers. L'absence de répétition dans la courbe de pression en fonction du temps est perçue comme bruit, et par conséquent comme une entité extrême.

L'union dialectique de ces points fondamentaux peut être obtenue de l'une des trois façons suivantes :

  1. On peut construire théoriquement une onde quelconque, dont la variation de pression au cours du temps est plus ou moins périodique, à partir d'une synthèse harmonique, c'est-à-dire, à partir de la stricte périodicité d'une forme trigonométrique élémentaire (sincot) produite par un mouvement circulaire uniforme et de ses superpositions appropriées (Fourier).
  2. En partant d'une onde initiale délibérément non périodique (mouvement brownien), on peut obtenir une courbe plus ou moins périodique en introduisant des périodicités (c'est-à-dire des duplications), soit de fragments de la courbe initiale, soit de sections construites indépendamment et menant à une courbe plus ou moins périodique. Il est aisé de percevoir la symétrie de ces deux premières procédures.
  3. En partant d'une courbe de pression définie par une fonction donnée (que celle-ci soit probabiliste, algébrique ou trigonométrique) on peut aller plus loin en répétant cette courbe et en y introduisant simultanément, après chaque répétition, une modification stochastique choisie de manière à obtenir la négation statistiquement continue de la période originale : il suffit d'agir de cette façon et simultanément, sur le timbre, la hauteur, le rythme, l'intensité et l'évolution générale. Supposons que la reproduction d'une entité quelconque s'éloigne de plus en plus de l'entité d'origine, c'est-à-dire que la déviation est appliquée en même temps à toutes les parties de l'entité. Celle-ci sera pulvérisée en un nuage statistique d'éléments constitutifs. Au niveau macroscopique, on obtiendra alors un nuage amorphe de sons, de rythmes, de timbres et de dynamiques, tandis qu'au niveau microscopique, on obtiendra une courbe brownienne qui sera perçue comme du bruit blanc. Ici, donc, nous introduisons l'élément stochastique comme étant la limite de la périodicité au sens large ; en d'autres termes, comme renouvellement d'une entité et en même temps comme négation croissante dans les reproductions.

L'entropie d'une entité croit d'un certain delta à chacune des reproductions de cette entité, c'est-à-dire que l'information la concernant se dégrade en partie à chaque renouvellement, et ceci irrémédiablement. Or il appartient au compositeur, en se fiant à l'intuition et en recourant au raisonnement de doser la croissance de ces deltas à tous les niveaux macroscopique, intermédiaire et microscopique de la composition musicale. En d'autres termes il faut fixer l'échelle de toutes les valeur qui séparent les deux bornes du déterminisme, qui correspond à la périodicité au sens strict, et de l'indéterminisme, qui correspond au renouvellement c'est-à-dire à la périodicité au sens large. C'est là qu'est le véritable clavier de la composition musicale. Et c'est ainsi que nous pénétrons dans un domaine aux innombrables perspectives scientifiques et philosophiques, telles que la continuité et la discontinuité des mathématiciens et l'espace-temps de la physique quantique.

La question qui se pose dans toute sa généralité est de savoir quelle est la construction mathématiqtie qu'il faut élaborer avant d'en nourrir l'ordinateur afin que ce que l'on entendra soit aussi intéressant que possible -- soit à la fois nouveau et original. Sans trop m'attarder sur ce sujet, je peux tout de même citer un exemple intéressant qui relève de ce que j'ai découvert il y a quelque temps en employant une distribution des probabilités dite « logistique », qui, pour certaines valeurs de ses paramètres et des barrières élastiques utilisées passe par une phase de résonance stochastique, et donc par une phase de stabilité statistique ce qui rend le son produit très intéressant. En fait, ce n'est pas un son que l'on obtient mais toute une forme musicale macroscopique. Cette forme résulte de transformations rythmiques qui engendrent des événement polyrythmiques de timbres, de hauteurs et d'intensités variables -- en bref, des tresses rythmiques de sons qui se rencontrent et qui se heurtent. C'est cette procédure que j'ai utilisée pour produire la musique du DIATOPE du Centre Georges-Pompidou.

De plus et de façon à montrer à quel point est importante cette dualité de l'entité et de sa négation par reproductions variées à chaque stade, je formulerai de nouveau et plus explicitement encore la question suivante, posée dans le contexte particulièr de la synthèse du son par ordinateur et par convertisseur numérique/analogique, comment obtenir un son riche, vivant et inouï ? Faut-il partir d'une entité et de ses reproductions en y introduisant au moyen de probabilités des variations créant des dérivations toujours croissantes par rapport à l'entité initiale et allant vers une négation toujours plus forte ? Ou bien, au contraire, si l'on prend comme point de départ, dans l'espace pression-temps une négation absolue -- en d'autres termes une courbe brownienne ne contenant en germe aucune entité, quelle qu'elle soit, faut-il introduire des reproductions plus ou moins variées de fragments de cette courbe de manière à générer progressivement ou brutalement une notion d'entité qui correspondrait dans le meilleur des cas, à un son riche, vivant et inouï ? Dans le premier cas, on définit l'entité de départ par des fonctions périodiques strictes (par exemple trigonométriques) tout simplement empilées ou adroitement combinées ; puis on introduit des perturbations probabilistes à chaque reproduction de l'entité. Dans le second, on définit d'abord un ensemble de fonctions de probabilités décrivant un mouvement brownien spécifique, constituant une négation extrême -- puis on introduit des fragments, reliés ou non, de la courbe brownienne, selon certaines lois de reproduction, afin de définir l'entité correspondant à ces lois. Telles sont les deux voies contraires et symétriques qui permettent de répondre à la question de la production d'un son riche vivant et inouï. Naturellement, aucune de ces deux voies n'exclut l'autre et les résultats peuvent être très intéressants dans un cas comme dans l'autre, même si les différences sont frappantes.

Voici enfin, cette fois en termes philosophiques, une autre expression de cette dualité universelle formée par une entité et sa négation : c'est la dualité du conflit opposant la thèse de Parménide à celle d'Héraclite. En questionnant sa raison, Parménide posa que l'Etre doit exister toujours et partout, à l'état homogène et permanent. Héraclite posa, quant à lui, que rien n'est immuable, que tout change. Formulées de cette façon, ces deux positions ne sont pas compatibles. Elles le deviennent cependant si l'on suppose que l'Etre de Parménide est cette entité dont nous avons parlé au début certes, mais une entité qui ne durerait pas -- comme si le temps était formé de séries de cellules et comme si l'entité inscrite dans cet ensemble de cellules ne pouvait empêcher, une fois toutes les limites atteintes, la disparition, la mort, sauf à troquer celles-ci contre une reproduction imparfaite. Le changement perpétuel d'Héraclite se réalise alors précisément par la reproduction de cette entité, c'est-à-dire au sein d'une périodicité au sens large. C'est ainsi que l'Etre de Parménide conserve son intégrité au sein de l'entité ; mais il s'y trouve assujetti à des limitations dans les domaines du temps, de l'espace et de l'homogénéité. En général, le changement n'est ni instantané, ni total ; il est obtenu progressivement, par périodicité, c'est-à-dire, par reproduction variée, même si parfois il est brutal. L'univers de la génétique illustre parfaitement cette union de Parménide et d'Héraclite. La musique aussi.

Mais la composition musicale, qui s'adresse à l'oreille nous mène à la composition visuelle, qui s'adresse à l'oeil. Le rayon laser et le flash électronique sont les équivalents visuels de sons techniquement réussis, et c'est créer une musique pour l'oeil que de les faire briller dans l'espace, une musique visuelle, abstraite, qui rendrait accessibles à l'homme -- à l'échelle terrestre, naturellement -- les galaxies, les étoiles et leurs transformations à l'aide de concepts et de procédures issus de la composition musicale. Ce qui en résulte est une nouvelle forme d'art visuel et auditif qui n'est ni le ballet ni l'opéra, mais véritablement un spectacle abstrait au sens où l'est une musique de type astral ou terrestre. Trajectoires de galaxies (en mouvement accéléré), tempêtes, aurores boréales -- voilà quelques exemples de ce que cette nouvelle forme d'art ne fait pas que reproduire -- ce serait sans intérêt -- mais produit véritablement à l'aide de quelques-uns des moyens mis à sa disposition par la technologie moderne. Dès a présent, un artiste d'un type nouveau peut se manifester à l'échelle d'une grande ville si on lui donne les moyens. Et il sera bientôt en mesure d'aller dans l'espace. C'est ce qu'on peut faire avec le DIATOPE. Grâce à sa tente en matière plastique dont l'architecture spéciale en paraboloïdes hyperboliques a été conçue par le Centre National d'Art et de Culture Georges-Pompidou pour son inauguration, le diatope est itinérant, et il peut représenter le Centre dans d'autres villes de France et d'ailleurs. En 1979, il a été à Bonn, en Allemagne de l'Ouest, où il était invité par le Maire.

Quatre rayons laser de 4 watts chacun sont équipés de systèmes optiques qui produisent des effets de lumière variés. 400 miroirs spéciaux, associés au rayon laser, créent de multiples toiles d'araignées lumineuses en mouvement. Des taches de lumière en mouvement ou des projections de flèches lumineuses dessinent dans l'espace et sur la toile noire de la tente des trajectoires d'étoiles filantes ou des mosaïques d'éclats lumineux. Des configurations tourbillonnantes enveloppent le spectateur assis ou couché sur un sol en carreaux de verre qui laisse passer sous lui d'autres événements lumineux. En outre, 1 600 flashes électroniques forment des spirales tournantes qui envahissent l'espace puis disparaissent dans l'obscurité complète. Ces flashes sont fixés sur un filet métallique suspendu sous la paroi de plastique. La musique, enregistrée sur 7 pistes, est distribuée automatiquement et en mouvement continu à 11 haut-parleurs de qualité par l'intermédiaire d'une partition programmée. Les ordres proviennent d'une bande magnétique numérique de 9 pistes qui décode une « image » du jeu d'ordres simultanées (il y en a environ 2000) tous les vingt-cinquièmes seconde ; les ordres sont transmis par liaison électrique à leur destination dans l'espace. Le spectacle de 46 minutes emploie 140.500.000 commandes binaires. Il va de soi que, pour contrôler et coordonner toutes ces configurations, leurs transformations et leurs mouvements, il faut utiliser l'ordinateur soit de façon interactive, soit en écrivant une bande numérique en suivant une partition spécialement conçue pour programmer le dispositif lumineux ; c'est cette bande qui, décodée tous les vingt-cinquièmes de seconde, contrôle l'état des milliers de sources lumineuses ou de systèmes optiques qui doivent rendre cette musique visible. La composition lumineuse et la bande numérique ont été réalisées au CEMAMu ; la musique, elle, a été réalisée au CEMAMu et achevée au studio électronique du Westdeutscher Rundfunk (WDR) de Cologne.

Pour penser la musique en tant que compositeur, c'est-à-dire en tant qu'artisan, que créateur, il est nécessaire de commencer par étudier pendant quelque temps le solfège, la notation, la théorie musicale, et même la pratique d'un instrument. Et puisque en outre, la création musicale est considérée comme superflue, très peu de gens peuvent y prétendre. On prive ainsi l'individu et la société de l'immense pouvoir d'imagination libre que leur offre la composition musicale. Or la technologie de l'ordinateur et de ses périphériques met en mesure de déchirer ce rideau de fer. Le système qui a permis de réaliser ce tour de force est l'UPIC (Unité Polyagogique Informatique du CEMAMu), dont le principe est le suivant : sur un tableau spécialement conçu à cet effet, on trace à l'aide d'un stylo à bille électro-magnétique des figures qu'un mini ordinateur relié à la table interprète, au choix de l'utilisateur, comme ces courbes de pression, des enveloppes dynamiques, des partitions notées selon les paramètres de la hauteur et du temps, etc. L'ordinateur calcule les données graphiques, et le résultat, après être passé par un convertisseur numérique/analogique, est immédiatement reproduit par haut-parleur et enregistré sur magnétophone. On peut ainsi créer des banques de formes d'onde, d'enveloppes, de partitions graphiques, etc. On peut également mixer, effacer et effectuer la plupart des opérations d'un studio de musique électronique traditionnel en se contentant de pointer un stylo électromagnétique sur différentes parties de la table, qui sont aussi sensibles que les touches ou les boutons d'un appareil électronique ordinaire. Un enfant peut dessiner un poisson, une maison : il peut écouter ce qu'il a fait, y apporter des corrections, et ainsi, progressivement et par le graphisme, apprendre à penser la composition musicale sans que le rebute le solfège ou la pratique d'un instrument. Qui plus est, comme il est amené à élaborer des rythmes, des gammes, et des choses plus complexes encore, il est également contraint à combiner l'arithmétique, la géométrie, les formes, la musique. Par le jeu se dégage ainsi une pédagogie interdisciplinaire aux applications multiples. Tout cela s'adresse évidemment à l'homme de la rue et, à fortiori au chercheur et au compositeur professionnel, puisque le son est produit par tranches très fines de l'ordre de 1/50 000ème de seconde.

Il découle de tout ceci que la musique et les arts visuels de demain exigeront des artistes qu'ils soient pluridisciplinaires et initiés aux mathématiques, à l'acoustique, à la physique, à l'informatique, à l'électronique, à l'histoire théorique de la musique et des arts visuels, ainsi qu'à la connaissance fondamentale d'une Théorie des formes et de leurs transformations, aussi bien en paléontologie qu'en génétique ou en astrophysique. Il faut donc les encourager et les former en leur donnant les moyens de créer grâce à un système tel que l'UPIC pour les musiciens, ou un système analogue pour les artisans des arts visuels.

La pierre de touche de cette évolution sera l'enseignement ; il faut faire d'un grand nombre de gens, disons même de la masse, des artistes-créateurs. Cet enseignement, tout comme celui des disciplines scientifiques, devra commencer dès le jardin d'enfants et se poursuivre pendant toute la durée des études. C'est à cette fin que la télématique peut apporter une contribution majeure : en effet, c'est grâce à elle que, pour la première fois, sont rendues possibles d'une part la création immédiate et à domicile par l'intermédiaire de terminaux, d'autre part par la diffusion et la communication au grand public avec feedback, de réalisations individuelles -- à l'aide d'un système comme l'UPIC une fois qu'il sera rendu économiquement accessible à la population moyenne -- ce qui ne saurait tarder.

Iannis Xenakis
traduit par Emmanuel Gresset

N.B. Cet article a déjà été publié dans une version anglaise par le M.I.T. Press, et dans une version italienne par la Biennale de Venise.

Appendice I
Correspondances entre certains développements de la musique et des mathématiques

Musique Mathématiques
500 av. J.C. La relation entre les hauteurs et les longueurs des cordes est établie. La musique donne ainsi un merveilleux coup de pouce à la théorie des nombres et à la géométrie. La musique invente les gammes incomplètes. Pas de correspondance musicale. Découverte de l'importance fondamentale des nombres naturels et invention des nombres rationnels positifs (fractions)

Invention des nombres irrationnels positifs, c'est-à-dire de la racine carrée de 2. (Théorème de Pythagore).

300 av. J.C. Invention des intervalles de hauteurs ascendants, descendants et nuls dans le langage additif introduit par Aristoxénos qui invente également, en théorie, une gamme chromatique à tempérament égale en utilisant pour module (échelon) le douzième de ton. Parallèlement se développe le langage multiplicatif (géométrique) des intervalles de hauteurs traduits en termes de longueurs de cordes (Euclide). La théorie musicale fait ainsi apparaître plus de quinze siècles avant sa découverte mathématique, l'isomorphisme entre logarithmes (intervalles musicaux) et exponentielles (longueurs des cordes). Prémonition également de la théorie des groupes par Aristoxénos. Les mathématiques ne réagissent pas. La théorie des nombres marque le pas dans son application à la théorie et à la pratique musicales, et stagne pendant plus de quinze siècles en dépit du concept d'infini et en dépit du calcul intégral et différentiel, déjà entrevu par Archimède.
1000 ap. J.C. Invention de la représentation spatiale bi-dimensionnelle des hauteurs en fonction du temps par l'utilisation de portées et de points (Guido d'Arezzo), trois siècles avant les coordonnées d'Oresme et sept siècles avant (1635- 1637) la superbe géométrie analytique de Fermant et de Descartes. Aucun parallèle en mathématique.
1500 ap. J.C. Aucune réaction ou développements des concepts précédents. Adoption du zéro et des nombres négatifs. Construction de l'ensemble des rationnels.
1600 ap. J.C. Aucun écho ni développement des concepts précédents. Invention des ensembles de nombres réels et de logarithmes
1700 ap. J.C. et 1800 ap. J.C. Redécouverte, par la pratique, de la gamme chromatique bien tempérée (Jean-Sébastien Bach). La musique est maintenant en retard du point de vue des structures de base. En revanche, les structures tonales, la polyphonie et l'invention des macro formes (fugue, sonate), sont en avance et font apparaître les germes de ce qui donnera très certainement une vie nouvelle à la musique d'aujourd'hui et de demain. La fugue, par exemple, est un automatisme abstrait utilisé deux siècles avant la naissance de l'automatique. De même, dans l'art du contrepoint, les quatre variations de la ligne mélodique sont des manipulations inconscientes des groupes finis (groupe de Klein). La théorie des nombres est en avance et n'a encore aucune structure temporelle équivalente. Ces structures apparaîtront plus tard avec les transformations stochastiques, la théorie des jeux, l'automatique, etc... Invention des nombres complexes (Euler, Gauss), des quaternions (Hamilton), définition de la continuité (Cauchy) et invention des structures de groupes (Galois, Abel).
1900 ap. J.C. Affranchissement du carcan tonal. On accepte pour la première fois la neutralité de la totalité chromatique (Loquin (1895), Hauer, Schoenberg). Les nombres infinis et transfinis (Cantor). Peano invente l'axiomatique des nombres naturels. L'admirable théorie des mesures (Lebesque, Borel, Heine).
1920 ap. J.C. Le système sériel de Schoenberg formalise radicalement et pour la première fois les macro-structures. Aucun nouveau développement de la théorie des nombres. Arrêt de la recherche, mais on discute toujours d'anciennes contradictions de la théorie des ensembles. (La musique rattrappera son retard dans les années à venir.)
1930 ap. J.C. Réintroduction d'une graduation des hauteurs plus précise par l'usage des quarts de ton, des sixièmes de ton, etc., bien que toujours dans le cadre du système tonal (Wichnegradsky, Haba, Carillo).
1950 ap. J.C. Seconde formalisation radicale des macro-structures avec permutations, modes de hauteurs à transpositions limitées et rythmes non rétrogradables (Messiaen).
1953 ap. J.C. Introduction des échelles continues de hauteurs et de temps (utilisation des nombres réels) dans le calcul des caractéristiques du son, même si, pour des raisons de perception et d'interprétation, les nombres réels sont approchés par des nombres rationnels.

C'est là ma contribution personnelle, sur le plan théorique autant que sur le plan musical ; elle s'appuie sur diverses disciplines mathématiques telles que le calcul des probabilités et le calcul logiciel, ainsi que diverses structures dont la structure de groupe. Tout cela jouera plus tard un rôle important dans la macrocomposition et dans la microcomposition.

1957 ap. J.C. Nouvelles formalisations musicales au niveau des macro-structures : processus stochastiques, chaînes markoviennes, bien qu'utilisés de façon différente (Hiller, Xenakis), et également utilisation de l'ordinateur (Hiller).
1960 ap. J.C. Axiomatique des gammes musicales grâce à la « théorie des cribles » et à l'introduction des nombres complexes dans la composition musicale (ceci est aussi le fruit de mes travaux).
1970 ap. J.C. Nouvelles propositions sur la micro-structure des sons grâce à l'introduction de la discontinuité continue à l'aide des lois de probabilité (parcours aléatoire, mouvement Brownien). Cette discontinuité continue est étendue aux macrostructures, donnant par là un nouvel aspect architectural au niveau macroscopique, par exemple, en musique instrumentale (ceci est également le fruit de mes travaux).

Appendice II
Mosaïque des compositions

de
Iannis Xenakis

ST Groupe Opérations logiques
sur les classes
ST/4-2 Akrata Herma
ST/10-080262 Nomos Alpha Eonta
ST/48 Nomos Gamma
Morsima-Amorsima
Atrées
Stratégie
Polytope de Cluny
(synthèse sonore :
ST + Cos-G
signaux de Gabor)
Cribles Parcours aléatoires Arborescences
Persephassa Mikka Evryali
Nomos Alpha Mikka-S Erikhthon
Nomos Gamma Cendrées Cendrées
N'Shima Empreintes
Noomena
Phlegra
Khoaï
Variations polygonales Chaînes markoviennes UPIC
Légende d'Er (Diatope) Syrmos Mycenae-Alpha
Jonchaies Analogiques A et B Anemoessa
Ikhoor
Spectacles de Musique et de Lumière
Polytope de Cluny : premier spectacle visuel entièrement automatisé.

Diatope : spectacle de lumière et de musique entièrement automatisé et utilisant tous les autres moyens de composition aux niveaux macro-microscopiques et intermédiaires.

Ces deux spectacles ont été combinés avec d'autres tels que les Polytopes de Montréal, de Persepolis et de Mycènes.


Notes

  1. Publié dans Formalized Music, Indiana University Press, 1971.
  2. UPSC : Unité Polyagogique Informatique du CEMAMu. Système informatique graphique du Centre d'Etudes de Mathématique et Automatique Musicales (CEMAMu), Paris.
  3. Voir Formalized Music, Indiana University Press, 1971.
  4. Voir Formalized Music, Indiana University Press, 1971.

____________________________
Server © IRCAM-CGP, 1996-2008 - file updated on .

____________________________
Serveur © IRCAM-CGP, 1996-2008 - document mis à jour le .