IRCAM - Centre PompidouServeur © IRCAM - CENTRE POMPIDOU 1996-2005.
Tous droits réservés pour tous pays. All rights reserved.

De la harpe éolienne à la "toile": fragments d'une généalogie portative

Peter Szendy

in Lire l'Ircam (n° spécial des Cahiers de l'Ircam), pp. 40-72, 1996, et Tr@verses n° 1, juillet 1996
Copyright © Ircam - Centre Georges-Pompidou 1996


La harpe éolienne pourrait être considérée comme le plus ancien des instruments de musique automatiques. Athanasius Kircher la décrit comme produisant "d'étranges cris et gémissements". Autrement dit, le son émis par le premier des automatophones tend à la vocalité. Et il en résulte une musique "de tristesse et de plaintes", c'est-à-dire une mélancolie constitutive de son automation (ainsi que d'une certaine délocalisation, d'un certain défaut d'origine qui en sont inséparables): "Ceux qui l'entendent de loin," écrit Kircher, "sans savoir comment ni où sont produits les sons, n'arrivent pas à [en] imaginer l'origine".

*

Vitruve décrit "la machine de Ctésibius, qui élève l'eau très haut". Mais cette machine, précise-t-il, n'est pas la seule que Ctésibius ait inventée: "Il y en a beaucoup d'autres de différentes espèces qui font voir qu'en comprimant les liquides au moyen de l'air, on produit des effets semblables à ceux de la nature: telles sont ces machines qui imitent le chant des merles ou ces ludions que l'on voit courir dans des vases de verre remplis d'eau ainsi que plusieurs autres machines de ce genre dont les unes réjouissent la vue et les autres font entendre des sons agréables." Enfin, Vitruve explique "en peu de mots" comment on fabrique "des orgues qui jouent par le moyen de l'eau".

*

Mersenne, dans son Harmonie universelle, parle d'un "Cabinet d'orgue qui se transporte où l'on veut et que l'on nomme portatif". Il dit vouloir faire "un orgue si léger que chacun le puisse porter aussi aysement que le violon et le luth".

Le 15 juillet 1635, il écrit à Nicolas-Claude Fabri de Peiresc: "Je m'occupe maintenant à trouver la manière de faire prononcer les syllabes aux tuyaux d'orgue. J'ai desja rencontré les voyelles a, e, o et u, mais i me fait bien de la peine, et puis j'ay treuvé la syllabe et fê. Je ne sçay si je pourray prendre le loisir de trouver les autres consonnes, à raison des differentes experiences qu'il faut faire sur ce sujet, lesquelles estant de coust, je laisseray le reste à ceux qui voudront passer outre."

*

Vers 1730, Prokop Divis, un prêtre de Bohème, entreprend de construire le Denis d'or, premier instrument de musique mettant en jeu l'électricité, bien que de manière anecdotique: il semble qu'il s'agissait simplement, comme le relève Hugh Davies non sans humour, de donner une secousse électrique à l'exécutant "chaque fois que l'inventeur le désirait". Avec le clavecin électrique mis au point en 1750 par le jésuite Jean-Baptiste de La Borde, l'électricité statique devient en revanche une composante essentielle du mécanisme.

Toutefois, c'est à partir de la découverte des rapports entre l'électricité et le magnétisme que l'électrification des instruments de musique sera entreprise de manière plus systématique. C'est ainsi que vers 1880, Richard Eisenmann s'attache à mettre au point son Elektrophonische Klavier, doté d'une pédale spéciale permettant de produire non seulement un son tenu, mais aussi un véritable crescendo.

L'électrification de l'instrument revient donc d'une part à suspendre ses limites traditionnelles (ses propriétés, ses programmes), à lui faire jouer l'improbable. Mais, d'autre part, elle ira de pair avec une normalisation et une intégration (rationalisation et miniaturisation).

*

En 1775, le Père Engramelle décrit en détail la tonotechnie, c'est-à-dire "l'art de noter les cylindres". La musique, dit-il, a fait "des pertes qu'on ne peut réparer". En effet, "nous jouirions encore à présent de l'exécution des Lulli, des Marchand & de tous les grands hommes qui ont ravi d'admiration leurs Contemporains s'ils avoient sçu le notage: leurs meilleurs morceaux, transmis par eux-mêmes à la postérité sur quelques cylindres inaltérables, auroient été conservés dans ce genre d'expression dont nous n'avons plus idée que par l'histoire".

*

Carl Philipp Emanuel Bach compose de nombreuses pièces pour les cylindres d'automatophones (on trouve dans le catalogue de ses oeuvres une trentaine de compositions rassemblées sous la rubrique: Diverses pièces pour pendules à jeu de flûtes, à jeu d'orgue et orgues mécaniques).

Haydn aussi: Sonates pour machines à musique composées par Monsieur le Chef de musique Joseph Haydn; notées sur le cylindre par Primitivus Niemecz, bibliothécaire de Son Altesse régnante Monsieur le Prince Eszterházy.

Mozart (Wolfgang Amadeus) aussi, à la demande d'un certain Josef Müller, fondateur à Vienne d'un cabinet de curiosités.

*

Fils d'un mécanicien facteur d'orgues, Johann Nepomuk Mälzel construit en 1805 un automatophone appelé Panharmonicon, imitant des instruments à vent et à cordes avec diverses nuances dynamiques. En 1813, lorsque le maréchal Wellington remporte une victoire sur Napoléon, Mälzel prépare une tournée de concerts à Londres, avec Beethoven: celui-ci promet d'écrire une pièce adaptée à l'automatophone, Mälzel devant en échange fabriquer des écouteurs pour lui faciliter la direction d'orchestre. Beethoven est atteint de surdité. Ce sera La Victoire de Wellington

*

Mersenne encore, qui détermine dans son Harmonie universelle "combien l'on peut faire de chants ou d'airs différents avec six sons ou six notes en prenant toujours les mêmes notes & en gardant la même mesure" (proposition IX du Livre second, Des Chants). Suit la "Table des 720 chants d'Ut, ré, mi, fa, sol, la". Avantages de cette entreprise de dénombrement systématique: d'une part, "le Musicien qui sçaura cette methode pourra gager tout ce qu'il voudra contre un autre qui ne la sçaura pas, qu'il fera plus de varietez que luy du nombre de notes qui lui sera proposé"; et d'autre part, il pourra procéder "au choix des meilleurs chants car, puisqu'on les a tous devant les yeux, l'on ne peut manquer à en choisir de bons si l'on a assez de jugement pour ce sujet..."

Kircher encore qui, sous le titre de Musurgie mécanique, décrit la construction d'une sorte de mécanisme d'"assistance à la composition", baptisé Arca musarithmica. C'est un coffret garni de tirettes coulissantes, sur lesquelles sont indiquées des notes, des mesures et des rythmes.

En 1757, Johann Philipp Kirnberger publie L'art de composer des menuets et des polonaises sur-le-champ. "Jetons un dé," écrit-il dans le mode d'emploi, "ce qui fait apparaître un chiffre. Recherchons-le dans un tableau de chiffres [...] et recopions la mesure figurant sous ce chiffre; continuons ainsi avec les deuxième, troisième, quatrième, cinquième, sixième et même septième mesures, selon les numéros qui sortent, et ainsi de suite jusqu'à ce que la composition soit achevée."

D'autres manuels du même type sont attribués à Mozart et Haydn.

*

Avant de construire des automatophones, Jan Diederich Nicolaus Winkel avait fabriqué des métiers à tisser. Il avait parlé de son projet de métronome à Mälzel qui le réalisera, passant pour en être l'inventeur. Ce serait donc par ressentiment, dit-on, que Winkel décida de construire son Componium (1821). C'est un orchestrion (avec de nombreux tuyaux, un triangle et un tambour), mais en outre, il compose au moyen de deux cylindres pointés. C'est-à-dire qu'à partir d'un thème donné, il peut réaliser des variations à l'infini, sans répétitions et sans qu'il soit possible d'en prévoir l'ordre.

*

Les recherches d'Elisha Gray l'amènent, en 1874, à concevoir un télégraphe musical : les anches d'acier oscillantes d'un émetteur-récepteur sont accordées à une hauteur différente pour chaque signal; on actionne l'ensemble par un petit clavier à touches et, pour la première fois, les sons ainsi produits sont transmis par un haut-parleur, composé d'un électro-aimant fixé au centre d'une cuvette métallique. La version perfectionnée que Gray met au point par la suite est utilisée pour une série de démonstrations en 1877: à Philadelphie, le pianiste Frederick Boskovitz joue des mélodies simples au clavier et la musique est aussitôt transmise à New York.

*

C'est en 1877 que Helmholtz publie son traité sur la sensation sonore (Lehre von Tonempfindung). Il rappelle que, selon le théorème de Fourier, "il est mathématiquement possible de considérer un son musical comme une somme de sons simples". Mais il remarque aussitôt qu'il y a là une simplification du phénomène: "Le son de la plupart des instruments est d'habitude accompagné de bruits irréguliers caractéristiques comme le grattement ou frottement de l'archet dans le violon, le passage de l'air dans la flûte et dans les tuyaux d'orgue, le battement des anches, etc. Ces bruits, qui nous sont déjà familiers dans la mesure où ils caractérisent les instruments, facilitent matériellement notre pouvoir de les distinguer dans une masse sonore composite de sons."

*

Le professeur Adolf Slaby est un "intime" de l'empereur Guillaume II. En 1903 à Berlin, à partir d'un enregistrement gramophonique, il réussit la transmission sans fil de la voix de Caruso, quatre kilomètres plus loin. "Le chant de Caruso," écrit-il, "est transporté en toute pureté jusqu'à nos oreilles à travers le tonnerre de bruits de la capitale."

*

Georges Sbriglia est docteur en droit, avocat à la cour d'appel. Il est l'auteur d'un ouvrage paru à Paris en 1907: L'exploitation des oeuvres musicales par les instruments de musique mécaniques et le droit de l'auteur. Il écrit: "On raconte que dans un concert donné par Strauss au Madison Square Garden de New York, en 1890, lors de l'exécution d'une polka intitulée 'le phonographe' et dédiée à Edison, le maître viennois, aux applaudissements du public qui réclamait une seconde audition, leva le bâton... mais l'orchestre ne bougea pas et la polka fut répétée par douze machines que la Société phonographique avait placées autour de la plate-forme de l'orchestre, avant l'exécution de la nouvelle polka."

Il raconte aussi que ce même soir où "Strauss donnait son audition au Madison Square Garden de New York, un maître de maison, donnant une soirée à Morristown, se servait comme musique de bal de l'orchestre qui jouait à vingt ou trente miles de là."

*

Il y a donc électrification de l'instrument. Mais on utilise aussi l'électricité comme source sonore à part entière. (Dès 1837, Charles Grafton Page décrit les bruits émis lors de l'allumage ou de l'extinction d'une pile comme une musique galvanique). Ce sont deux grandes filiations qui, bien sûr, se subdivisent à leur tour.

*

Avec son "clavier électrostatique" (elektrostatisches Klavier, ou encore Elektrochord), Oskar Vierling conçoit un piano sans table d'harmonie. Le coup de marteau sur les cordes provoque une vibration presque muette qui, une fois transformée en vibrations électriques, sera amplifiée par haut-parleur. Dans un texte de 1932 intitulé Elektrische Musik, Vierling envisage de perfectionner son instrument en le dotant de "registres": "Ces registres ne sont pas, comme pour l'orgue, réglés une fois pour toutes sur un timbre donné: flûte, cor ou instruments à cordes... Ils permettent au contraire de réaliser, à côté de ces timbres connus, tous les intermédiaires et toutes les transitions."

*

Vierling se souvient aussi d'un instrument géant, utilisant le principe des roues phoniques. C'est le Dynamophone de Thaddeus Cahill, mis au point dans les toutes premières années de ce siècle: "Pour la production du son", écrit Vierling, "des machines étaient utilisées qui fournissaient les courants alternatifs des diverses fréquences. Ensuite, par des interrupteurs reliés au clavier, les courants étaient connectés au circuit et devenaient enfin audibles à travers des écouteurs. Les timbres, [Cahill] les réalisait d'après le même principe que celui appliqué à l'orgue, c'est-à-dire en réunissant les courants issus des différentes sources..."

À la différence de ceux de l'Elektrochord, les timbres de cette imposante "centrale électrique à sons" qu'est le Dynamophone sont donc obtenus par synthèse harmonique. Comme ceux de l'orgue.

*

Le Dynamophone porte un autre nom: Telharmonium. Installé à New York en 1906, l'instrument donne des concerts journaliers que les abonnés peuvent entendre transmis à distance par des câbles. On dîne au restaurant au son du Telharmonium. Mais les câbles passent par les mêmes conduits que ceux du téléphone ce qui crée des interférences. Un article du New York Globe and Commercial Advertiser de janvier 1907 (Music on Wires) parle des "troubles domestiques" causés par le Telharmonium: "Il a même failli briser des familles. Il y a le cas de cet homme qui devait travailler tard au bureau un soir. Il appelle sa femme pour lui dire qu'au lieu de rentrer à la maison, il passera la nuit à l'hôtel. Juste au même moment, les joyeuses mélodies de l'ouverture de Guillaume Tell passent dans les câbles. 'Où es-tu?', lui demande sa femme, soupçonneuse. 'Au bureau, bien sûr', répond-il. 'Vraiment?', dit-elle, 'depuis quand as-tu un orchestre?'..."

On conçoit l'embarras du mari, embarras qui est tout sauf anecdotique. Car les développements de la technologie musicale vont de pair avec un bouleversement des limites entre privé et public. Sbriglia en disait quelque chose, à sa manière.

C'est donc dans ce contexte que Lee de Forest propose de mettre au service du Telharmonium son système de "radiotéléphone". Le 28 février 1907, dans ses Notes autobiographiques, il consigne ceci: "Radio Telephony and Teleharmony (sic) - new, epoch making... Je cherche à transmettre ces glorieuses vibrations sonores produites par la nouvelle électricité, sans medium aucun, à l'exception de ce mystère des mystères, intangible, invisible, sans corps: l'éther."

*

Oskar Vierling est aussi le concepteur du KdF-Grosston-Orgel. KdF étant l'acronyme de Kraft durch Freude, la puissance par la joie. Cet orgue au "grand son", cet orgue électrique mégaphone à trois claviers et un pédalier se fait entendre pour la première fois aux Jeux Olympiques de Berlin en 1936.

C'est lors de ces mêmes J. O. que Friedrich Trautwein réalise son système de haut-parleurs en forme de champignons (Pilzlautsprechersystem), qui fera beaucoup parler de lui. Trautwein en décrit le principe général dans Dynamische Probleme der Musik bei Feiern unter freiem Himmel: problèmes dynamiques de la musique lors des fêtes en plein air, c'est-à-dire (littéralement) "sous un ciel libre". Sic.

*

La lampe triode, mise au point par Lee de Forest en 1906, permet d'amplifier l'intensité du courant électrique; c'est aussi grâce à elle que se développe la technologie de la radio, avec la technique dite de modulation d'amplitude. La réception radiophonique fondée sur ce procédé étant très sensible aux variations du champ électromagnétique, on pouvait produire un sifflement parasite en approchant la main des circuits. C'est à partir de ce "défaut" que De Forest conçoit en 1915 l'audion piano.

*

Friedrich Trautwein, dans Elektromusik im Rundfunk, note : "Grâce au sens des affaires (Geschäftstüchtigkeit) du juif Goldberg, l'instrument imparfait et musicalement impossible du russe Theremin a pu parvenir jusque dans les variétés, les bars et les lieux nocturnes."

*

C'est en fait sur le principe de l'audion piano qu'en 1921, Theremin, un physicien russe, réalise son étherphone: on en joue en déplaçant les mains devant une antenne qui capte les variations de champ électromagnétique. Theremin fait de nombreuses tournées en Europe. Dans un article publié en allemand en 1927, il écrit: "Ainsi naît dans l'espace qui entoure l'antenne une sorte de touche invisible et, de même que sur le violoncelle, le doigt qui appuie sur la corde provoque une sonorité plus aiguë en s'approchant du chevalet, de même ici, le son monte à mesure que l'on s'approche de l'antenne."

Envoyé en tournée en Europe,Theremin présente un concert-conférence à Paris, d'abord le 6 décembre 1927 à la salle Gaveau puis, deux jours plus tard, à l'Opéra de Paris. Commentaire d'un journaliste dans Le Monde musical: "Les appareils radioélectriques construits par M. Theremin touchent réellement aux limites du merveilleux; ils ne donnent pas seulement la possibilité de faire de la musique par un simple mouvement des mains dans l'espace mais ils permettent aussi à l'exécutant de donner au son produit le timbre des instruments à vent et à cordes les plus différents, et même, de la voix humaine, à volonté et à la perfection. Il s'agit d'une invention technique de la plus haute importance dont l'avenir peut se comparer à celui de la T.S.F. et du téléphone."

La presse allemande commente aussi largement l'instrument. En 1927, dans la revue Funk, Hans Böhm écrit ainsi qu'il est aisé de "faire du clavier de l'éther (Ätherklavier) un poste de radio habituel"; on peut même "recevoir et jouer (konzertieren) en même temps, c'est-à-dire utiliser par exemple l'orchestre de la radio comme accompagnement pour sa propre pratique musicale en solo..." L'étherphone de Theremin promet donc une pratique musicale domestique d'un genre nouveau, une Hausmusik qui n'est pas sans annoncer les disques d'accompagnement du type music minus one, apparus dans les années soixante. Ou encore cette "invention" que l'on date du début des années soixante-dix: le karaoké, terme japonais pour orchestre absent.

*

Pour réunir un orchestre d'étherphones, écrit encore Böhm, il n'est pas nécessaire d'avoir "autant d'appareils, de haut-parleurs et de batteries que de voix". À l'exception des antennes, tout le reste "peut être partagé", à l'instar des instruments électroniques d'aujourd'hui, connectés en réseaux.

*

Theremin lui-même souligne que "le changement de hauteur et de dynamique peut être produit non seulement par le mouvement des mains mais aussi par celui du corps tout entier, même à une certaine distance de l'appareil". Et il ajoute que "cette possibilité ouvre une vaste perspective pour le problème des relations entre musique et danse".

Avec sa touche invisible, avec sa sensibilité au corps tout entier, l'étherphone bouleverse l'approche corporelle de l'instrument. En droit, sinon en fait, l'étherphone est une sorte d'espace musical virtuel avant la lettre.

*

Clara Rockmore est une des rares (peut-être la seule) virtuose de l'étherphone. Elle en joue, en 1975 sur un disque produit par Robert Moog, qui a repris la fabrication de l'instrument. Ce sont des arrangements de pièces connues.

*

C'est encore un étherphone fabriqué par Moog que l'on peut entendre dans le tube des Beach Boys: Good Vibrations.

*

Il fait chaud en Allemagne durant l'été 1911. Sur son orgue désaccordé, Jörg Mager entend d'étranges combinaisons de timbres, microtonales. Steinmayer d'Oettingen lui prête des tuyaux. En quelques mois, Mager a construit son premier harmonium en quarts de ton (Vierteltonharmonium).

Il publie une brochure intitulée Musique en quarts de ton et il l'adresse à Richard Strauss. Réponse: "La question des quarts de ton est, certes, intéressante et vaut la peine d'être étudiée en profondeur. Mais pour ma part, je m'en sortirai encore avec les demi-tons."

Plus tard, en 1924, il remarque aussi avec amertume que "les firmes radiophoniques se sont mobilisées avec beaucoup d'énergie pour la transmission d'une musique radiophonique mais qu'elles n'ont montré quasiment aucun intérêt pour ce problème important entre tous: la production de musique."

*

Il est certain que la radiophonie et la gramophonie sont des moyens de transmission et de reproduction de la musique mais ce sont aussi, sans attendre, des moyens de production.

En Allemagne, dans les années trente, on s'interroge sur trois qualificatifs qui sont dans l'air du temps: funkmäßig, funkeigen et funkisch. Difficile de traduire. Funk, c'est la radio. Et les trois termes visent, avec à chaque fois une légère nuance, quelque chose comme un radiophonisme, au sens où l'on parle de pianisme, d'anglicisme ou de gallicisme.

Siegfried Scheffler tente de fixer ces nuances. Dans son livre paru à Berlin en 1933 (Melodie der Welle), il définit comme étant funkgeeignete "toutes les oeuvres dont l'effet perçu reste relativement correct, même si elles n'ont pas été pensées pour la radio". Ce qui est le cas, selon lui, de la musique de chambre, de la musique contemporaine ou de certaines oeuvres des XVIIe et XVIIIe siècles du fait de leur style polyphonique et de leurs effectifs réduits. Le corollaire étant, bien sûr, que la musique romantique est antiradiophonique. Le terme de funkmäßig désigne en revanche la musique réalisée "pour la radio, d'après les désirs, les expériences et les exigences de celle-ci", qu'il s'agisse d'arrangements spécifiquement radiophoniques d'oeuvres préexistantes ou d'une véritable création destinée aux ondes, à l'exclusion de tout autre médium.

*

Il y a donc la question du radiophonisme, du génie radiophonique. Mais cette question est aussi contemporaine de celle d'un gramophonisme, d'un idiome musical proprement gramophonique. C'est ce problème que vise le terme allemand de Schallplattenmusik (littéralement: "musique discographique").

Le rapport annuel de la Musikhochschule de Berlin pour l'année académique 1929-1930 mentionne que, dans le cadre du festival Neue Musik Berlin 1930, Paul Hindemith et Ernst Toch ont présenté des oeuvres originales pour disques (Originalschallplattenmusik). Selon le compte-rendu qu'en donne Heinrich Burkhard dans la revue Melos, celles-ci ont été réalisées: 1. par la fusion, le fondu enchaîné (Überblenden) entre une musique "réellement jouée" (real gespielter Musik) et des enregistrements discographiques; 2. par l'utilisation de degrés de vitesse, de hauteurs et de timbres (Schnelligkeitsgraden, Tonhöhen und Klangfarben) qui sont impossibles pour "le jeu réel" (dem realen Spiel). Ainsi est née, conclut Burkhard, "une musique originale qui ne peut être redonnée (wiedergegeben) que par le gramophone".

*

Mager parle (c'est le titre de son ouvrage) d'une Nouvelle époque de la musique par la radio. Il parle aussi de "l'explosion du système des demi-tons", et il écrit une Prophétie radiophonique. La musique de l'avenir, dit-il, sera exécutée "en grande partie par des instruments radiophoniques": non seulement au sens où ceux-ci la transmettront mais surtout par "la production des sons musicaux directement au moyen d'instruments cathodiques".

Pour Mager, le système des quarts de ton n'est qu'un "compromis" entre son idéal du cercle pantonal (Alltonkreis) et les limites de la technique instrumentale. Et lorsqu'il construit son sphérophone (Sphärophon), Mager précise qu'il s'agit d'un instrument qui, de par sa "tolérance" artistique, doit servir "tous les systèmes". Jusqu'à la division de l'octave en soixante-douze parties.

*

En 1933, un article de la revue Funk-Bastler (littéralement: "le bricoleur radiophonique") décrit le principe du Trautonium de Friedrich Trautwein: de même que la voix - c'est-à-dire l'appareil vocal - produit des voyelles à partir de formants, c'est ici un mélange de nombreuses oscillations électriques que l'on peut cribler (tamiser, filtrer: aussieben), pour obtenir des timbres divers. Contrairement aux instruments de Theremin ou de Mager, le Trautonium fonctionne selon un principe soustractif

*

Oskar Sala a pu décrire le Trautonium comme le précurseur du synthétiseur. Et de fait, dans Elektrische Musik, Trautwein envisage un contrôle des dynamiques par le souffle, par une prothèse pneumatique qui évoque les breath controllers de certains synthétiseurs actuels. Le Trautonium représente également une sorte de compromis entre la corde et le clavier. En principe, c'est en appuyant sur une corde tendue que l'on modifie la hauteur. Mais cette corde est surmontée d'une tringle coulissante sur laquelle est fixée une rangée de leviers, servant de points de repère pour les notes. D'où la possibilité de réaccorder l'instrument selon des tempéraments différents. Par ailleurs, la pression digitale exercée influe sur l'intensité et le déplacement vertical de la corde permet de modifier le timbre. Selon Trautwein: "un jeu tridimensionnel".

*

C'est encore dans le cadre du festival Neue Musik Berlin 1930 qu'Oskar Sala interprète, avec son maître Hindemith et avec Rudolph Schmidt, des pièces pour Trautonium. Après la guerre, il reconstruit une nouvelle version du Trautonium (baptisée Mixturtrautonium) dans laquelle il intègre un générateur de bruit ainsi que de nouveaux effets. C'est une sorte de revival. Sala et sa machine sont appelés à Bayreuth pour réaliser les cloches de Parsifal. Par la suite, l'industrie du cinéma.le sollicite Une "vieille connaissance" de Sala rencontre l'équipe de Hitchcock aux États-Unis. Le Trautonium et son réinventeur signent la musique des Oiseaux.

*

Laurens Hammond a déposé deux brevets. L'un, en 1920, pour une horloge électrique; l'autre, deux ans plus tard, pour un moteur asservi à la fréquence du courant. Il fonde en 1928 la Hammond Clock Co. à Chicago. On y fabrique des horloges, des tables de bridge dotées d'un système pour battre les cartes...En 1934, il dépose un brevet pour un instrument à clavier, bâti sur le système des roues phoniques du Telharmonium mais suffisamment miniaturisées pour que l'ensemble soit portable.

Le succès est rapide: dès la fin des années trente, la compagnie est rebaptisée Hammond Organ Co., elle produit quelque deux cents instruments par mois. Plusieurs milliers d'instruments sont vendus dont la plupart à des églises. Mais Hammond doit aller en justice et c'est après une longue bataille contre la Federal Trade Commission qu'il obtient le droit de faire précéder son nom de celui d'un très vieil instrument. C'est l'orgue Hammond.

*

Aujourd'hui, les orgues Hammond sont entièrement électroniques. Et c'est électroniquement qu'ils recréent le déclic qui faisait le sound des premiers modèles à roues phoniques.

*

Avec l'arrivée du cinéma parlant, Arseny Avraamov réalise dans les années trente à Moscou les premières pistes sonores directement dessinées sur le film - technique qu'il utilisera plus tard pour restituer les inflexions microtonales de la musique populaire russe. Evgeny Sholpo développe, quant à lui, un appareil baptisé "variaphone", sorte de machine photo-électrique à fabriquer des bandes-son optiques. Oskar Fischinger et le compositeur Paul Arma réalisent des expériences semblables au Bauhaus à Dessau. Mais c'est chez László Moholy-Nagy qu'elles conduisent à un véritable "alphabet sonore" (Tönendes ABC), dans lequel les formes dessinées de la bande-son constituent également les éléments visuels du film.

*

Dans telle lettre de Darius Milhaud à Maurice Martenot (sans date), il est question du génie (micro)phonofilmographique d'une invention célèbre: "Mon cher Martenot, l'état actuel de votre instrument à Ondes est une véritable perfection. Je ne connais aucun instrument de ce genre aussi complet à tous points de vue: puissance et douceur du son, variété des timbres, netteté, justesse absolue et surtout, je suis très heureux de constater que, même joué au ruban, vous pouvez éviter les 'glissandi' entre les notes...J'ajoute que, pour le micro (disques et films), c'est un instrument idéal. Votre bien fidèle Milhaud."

*

Après la guerre, Trautwein donne des cours à des ingénieurs du son, au conservatoire Robert-Schumann de Düsseldorf. Il construit, pour le studio de musique électronique de la WDR de Cologne, un instrument baptisé Monochord. Celui-ci fonctionne, certes, sur le principe du Trautonium mais Trautwein souligne des différences importantes: "De par son objectif, sa construction et son emploi, le Trautonium - particulièrement entre les mains d'O. Sala - est un instrument au service du jeu musical actif et virtuose (dem aktiven, künstlerischvirtuosen Musizieren); il est au service de l'interprétation qui, même lors de l'exécution répétée d'une pièce, constitue à chaque fois un nouvel acte artistique. Au contraire, la musique authentique (authentische Musik) doit naître d'un travail d'atelier qui peut requérir un temps très long. Il n'y a donc pas l'élément de la spontanéité. Et c'est pourquoi la construction d'un générateur de son destiné à la composition authentique (authentische Komposition) ne nécessite aucun dispositif facilitant des changements de timbre rapides et dénués de bruits parasites."

Composition authentique: l'expression est de Werner Meyer-Eppler, qui l'emploie dans un article de 1953 intitulé Elektronische Kompositionstechnik. Il s'agit d'oeuvres qui n'ont plus à passer par le stade d'une interprétation car elles sont produites par le compositeur directement sur le support qui permet leur reproduction. Le studio de musique électronique de Cologne fut en effet conçu, comme l'écrit Trautwein, "d'après les suggestions de W. Meyer-Eppler", qui était alors professeur titulaire à Bonn en sciences de la communication.

*

Avec les studios, suggère Hugues Dufourt, "l'ère de l'instrument de musique s'achève pour céder le pas à l'ère des synthèses calculées". Et l'on est tenté de lui donner raison, du moins dans ce premier temps où lesdits studios prolifèrent.

C'est en effet ce que constate Karlheinz Stockhausen, dans Musique électronique et musique instrumentale. Il y eut d'abord le Club d'essai, fondé par Pierre Schaeffer en 1948 au sein de la Radiodiffusion française. (Et il y eut aussi - Stockhausen n'en parle pas - au moins un centre "d'expérimentation radiophonique" en Allemagne, dès 1928.) Puis, comme l'écrit Stockhausen, "maints studios de musique électronique ont été aménagés depuis la création du studio de Cologne". La liste qu'il donne est longue, sans être exhaustive : le studio de la radio de Milan, Radio-Tokyo, les usines Philips à Eindhoven, la société ABELAC à Bruxelles (spécialisée dans la production de matériel électronique), la radio de Varsovie, le Südwestfunk Baden-Baden, l'ORTF, l'Université de Columbia...

*

Stockhausen constate aussi que "les conditions de travail que connaissent tous ces studios sont fort primitives" : "Ils disposent en effet d'un matériel qui est conçu à d'autres fins - notamment pour des analyses du son ou des mesures techniques..." Une situation que Stockhausen déplore : "les conceptions des musiciens se heurtent aux limites techniques" et, de plus, "le temps investi et l'énergie dépensée sont en totale disproportion en regard des résultats obtenus".

Stockhausen soulève ici deux problèmes qui, peut-être, n'en font qu'un. D'une part, le rapport au temps (musical) change. D'autre part, les machines dont sont dotés les studios sont rarement conçues à des fins musicales (les quelques exceptions, comme le Monochord, confirment la règle). Et à ce sujet, Stockhausen tient à noter "la mise au point par RCA d'un appareil" qui lui semble "répondre parfaitement aux exigences" d'un studio de musique électronique.

*

C'est en effet pour la Radio Corporation of America (RCA) que Harry Olson et Herbert Belar construisent, dans les années cinquante, une machine portant le nom de synthétiseur. C'est de sa seconde version (dite Mark II) que parle Stockhausen : elle est logée aux studios de musique électronique de Columbia-Princeton.

"Les propriétés du son musical" écrivent Olson et Belar "sont la fréquence, l'intensité, la forme d'onde et la durée." Et leur synthétiseur se fonde ainsi sur la décomposition du son en ses diverses caractéristiques. C'est un code binaire qui spécifie lesdites propriétés au moyen de rouleaux de papier perforés. La séquence sonore est ensuite enregistrée sur un disque.

Le RCA est donc un instrument complexe, précis. Pourtant, ses concepteurs prévoient qu'il sera utilisé "pour faire de la musique commerciale (for sale) sous forme d'enregistrements phonographiques". Le synthétiseur, écrivent-ils, facilitera la production d'un tube (hit) car il permet de réaliser "toutes les sortes de sons imaginables".

*

Stockhausen soulignait la disproportion entre le temps investi et les résultats obtenus en musique électronique. Et tel est aussi le cas, de manière exemplaire, avec les premières utilisations de l'ordinateur en musique.

Synthétiser le son, composante par composante, bouleverse en effet ce que Max Mathews appelle, quant à lui, l'échelle de temps (time scale). "Avec une échelle de mille, écrit-il, vingt minutes de temps d'ordinateur sont nécessaires pour chaque seconde de son. Ce doit être une seconde remarquable pour que cet effort en vaille la peine."

*

La Suite Illiac est une oeuvre en quatre mouvements. Programmée entre septembre 1955 et novembre 1956 par Lejaren Hiller et Leonard Isaacson, elle est la première oeuvre composée par l'ordinateur ILLIAC auquel les "auteurs" rendent hommage dans le titre. "Notre objectif premier," écrivent-ils dans la préface à la partition, "n'est pas la présentation d'une unité esthétique - d'une oeuvre d'art. Cette musique est conçue comme l'archive d'une recherche (a research record), comme un journal de laboratoire."

*

En 1963, Hiller est à Darmstadt où il prononce deux conférences.

Dans la première, il dit ceci : "Avec les synthétiseurs de musique électronique comme avec tous les moyens compositionnels antérieurs, le compositeur doit toujours élaborer (ausarbeiten) chaque élément de son projet dans tous ses détails. Avec la musique par ordinateur (Computermusik), en revanche, tel n'est plus le cas... Nous n'utilisons plus l'électronique uniquement pour la synthèse sonore et l'impression graphique (Notendruck), nous posons aussi des questions fondamentales à l'essence de la composition, aux relations entre le projet et l'élaboration d'une composition."

Ces questions semblent trouver leur réponse dans ce paragraphe de la seconde conférence intitulé Théorie du processus compositionnel : "La teneur maximale en information se produit lorsque le matériau de travail est fait de symboles arbitrairement choisis. Cette teneur en information [peut-être pourrait-on l'appeler 'entropie'] se réduit dès lors qu'on restreint l'arbitraire... La genèse de la musique par ordinateur, telle que nous la voyons, s'accomplit donc en deux étapes. Nous créons d'abord un état où règne l'arbitraire puis, à ce chaos, est imposé un degré d'ordre supérieur ou plus restreint."

*

Dans sa première conférence, Hiller présente aussi ses recherches sur "l'application de la théorie de l'information à l'analyse musicale". Il s'agit notamment d'une "comparaison entre quatre expositions de sonate" : Mozart, Beethoven, Hindemith et Berg.

De même que la synthèse du son est indissociable de son analyse (selon le théorème de Fourier, par exemple), de même, le développement de ce qui s'appellera bientôt composition assistée par ordinateur (CAO) semble être solidaire d'une décomposition des procédés d'écriture en opérations simples et récursives, en algorithmes.

Gérard Assayag et Marc Chemillier tentaient ainsi récemment de simuler avec PATCHWORK 1 un double processus automatisé d'affaissements et d'effacements générant la trame d'une quinzaine de mesures des Melodien de Ligeti.

*

Dans les années soixante, la technologie du transistor permet le développement des synthétiseurs, véritables studios en miniature.

Avec l'article qu'il livre à l'hebdomadaire américain Saturday Night, Glenn Gould peut ainsi saluer le premier tube réalisé avec un synthétiseur ; il s'agit du disque de Walter Carlos, intitulé Switched-on Bach : "Cette anthologie," écrit Gould, "candidate aux faveurs du hit-parade, est en effet exécutée sur un clavier : le clavier à trois octaves, actionné électriquement et note par note du synthétiseur Moog. Avec ses torsades de câbles (patch cords) en forme de spaghettis, logées de manière compacte dans trois valises ouvertes et dressées à la verticale, avec son unité-clavier frontale de deux-pieds-fois-trois-pieds-fois-(environ)-trois-pouces-de-profondeur, cet instrument est sorti du cerveau du Dr Robert Moog, de Trumansberg, New York ; et il est conçu pour expédier le problème suivant : transformer le bruit blanc et les ondes sinusoïdales, carrées ou en dents de scie en composantes musicales reconnaissables. Ses contrôles d'enveloppe (envelope controls) gouvernent l'attaque, l'extinction (decay), la forme d'onde ; et à partir du bruit blanc type Niagara, à partir des ondes carrées ou en dents de scie, riches en partiels, son ingénieux système de filtres permet d'extraire n'importe quelle combinaison de fondamentales et d'harmoniques. Ainsi, il représente un laboratoire en miniature bien qu'il ne remplace pas tout à fait les systèmes beaucoup plus complexes (et souvent assistés par ordinateur) opérant dans nombre d'universités (university workshops)."

Tel est donc le synthétiseur construit par Robert Moog. Et bizarrement, lorsque Bruno Monsaingeon traduit ce texte dans le deuxième volume des Écrits de Gould (Contrepoint à la ligne), il omet tout le passage sans le signaler. Trop technique, sans doute. Malgré l'immense popularité que le synthétiseur apporte à la musique électronique.

*

En effet, poursuit Gould, les "puristes" sont enclins à "mépriser" (sniff at) l'originalité du Moog, à savoir son clavier sensible au toucher (touch and depth sensitivity). Le Moog permet ainsi de rendre justice à l'interprète, ce qui n'était pas le cas du synthétiseur RCA. Ce dernier, avec son ruban perforé, avait "prouvé quinze ans plus tôt, pour ceux que cela pouvait intéresser, qu'il n'était pas loin de pouvoir sonner, entre autres, comme la voix humaine". Le Moog ("théoriquement") peut aussi "être encouragé à imiter virtuellement n'importe quelle sonorité instrumentale connue de l'homme" ; mais s'il le fait, c'est grâce à son clavier sensible, "avec la persuasion d'une faillibilité rythmique humaine" (with a persuasively human rhythmic fallibility).

En cela réside la nouveauté du synthétiseur : il réintroduit la valeur d'interprétation, exclue de la musique électronique en tant que composition authentique (au sens de Meyer-Eppler). Reste qu'il est quelque peu étrange de lire sous la plume de Gould une "mélioration" de la faillibilité. À quelques lignes de distance, il affirme en effet que la "vraie révélation" de ce disque de Walter Carlos est "son acceptation totale de l'éthique de l'enregistrement" (its total acceptance of the recording ethic).

*

Moog était étudiant en physique à l'Université de Cornell. Pour gagner sa vie, il vendait l'étherphone de Theremin dont il avait repris la fabrication.

*

Avec les synthétiseurs modulaires de Moog, il n'y a plus de correspondance univoque entre telle touche du clavier et un circuit de génération sonore qui lui reviendrait en propre. Une touche ne produit donc plus une sonorité donnée mais une tension de contrôle. Celle-ci déclenche et gouverne l'activité des autres modules du synthétiseur, respectivement voués à la génération, à la transformation et à l'amplification de l'onde sonore. Il s'agit : 1. de l'oscillateur (VCO, pour voltage controlled oscillator) ; 2. du filtre (VCF, pour voltage controlled filter) ; 3. de l'amplificateur (VCA, pour voltage controlled amplifier). À ces trois modules de base s'ajoute un module auxiliaire : le générateur d'enveloppe (EG, pour envelope generator) qui définit l'attaque, la décroissance (decay), le maintien (sustain) et l'extinction (release) du son. D'où l'enveloppe dite ADSR.

Tel est, très brièvement, le schéma du synthétiseur analogique. Où l'onde acoustique et l'onde électrique entretiennent des relations d'isomorphie. C'est-à-dire qu'elles se ressemblent.

Ce n'est plus le cas, en revanche, pour les synthétiseurs numériques. Cette fois, c'est un convertisseur (DAC, pour digital / analog converter) qui traduit les valeurs numériques en ondes électriques. Il y a eu en effet encodage et les ondes n'ont plus aucune analogie avec les chiffres.

*

Dans une des ses critiques virulentes de la pratique symphonique, publiée sous le titre Of time and time beaters et sous le pseudonyme de Herbert von Hochmeister, Gould fait "un pari assez polisson" : "La direction d'orchestre de l'avenir sera assurée par un synthétiseur d'inspiration hypnotisante en circuit fermé, une sorte de pot-pourri démocratiquement programmé des idées et idéaux des musiciens d'orchestre, des managers et des critiques, enfin rassemblés dans une vision unifiée des choses. Sa conception convaincante du répertoire sera transmise aux musiciens d'orchestre à l'intérieur de leurs studios qui seront bien évidemment le lieu exclusif des répétitions et des exécutions, l'assemblage des sons étant assuré par des commandes programmées à partir d'une série de spécifications a priori définies. Ainsi le musicien d'orchestre sera-t-il en mesure de franchir des pas de géant en direction d'un avenir automatisé. Il pourra jouer tout en restant chez lui, oublier ses problèmes de voiture, s'épargner les services d'une baby-sitter et envoyer sa femme au travail."

Et ici, Gould rend hommage, à sa manière, à un autre musicien : Hugh Le Caine, l'inventeur de cette saqueboute électronique que certains, du fait de son usage (limité) du contrôle en tension (voltage control), considèrent comme étant le premier synthétiseur.

Gould : "Le chef d'orchestre automatisé, aussi commode soit-il, pourrait paraître de prime abord, aux musiciens d'orchestre de tendance conservatrice, s'écarter des traditions de la bonne vieille gestuelle des manieurs de baguette. Ne serait-il pas possible alors de faire appel à M. Hugh Lecaine (sic), l'ingénieux inventeur du clavier par touche d'amplitude qui a tant contribué à enrichir les ressources du Studio de musique électronique de Toronto ? Il est si profondément imprégné de la grande tradition franco-prussienne qu'il ne devrait pas être outre mesure compliqué de programmer l'ordinateur de telle sorte qu'il soit capable de dégurgiter des remarques d'introduction assez semblables à celles que les chefs d'orchestre utilisent traditionnellement au début de leurs répétitions. Dans un souci de sécuriser au maximum les musiciens d'orchestre, on pourrait colorer ces remarques d'un accent bavarois, opportunément gemütlich : 'Gut morning, tschentlemen!-Vot kann I zay!!!-ov ziss vourk... eggzept I @ % ¢-whrote itt $$$$$-meinzelf $**!!!'”

Traduction française de Bruno Monsaingeon : "Bonchour, Mezieurs ! - que pouis-che tire !! - te zett oeufre... zinon que z'est moi (a % - qui l'ai ekritte &&&***!!!"

*

Gould est absolument sérieux. La question qu'il pose est celle de l'idiome : la machine peut-elle être dotée d'un accent ?

"L'interprétation assistée par ordinateur, répondrait Max Mathews, élargira et changera nos concepts de l'interprétation au point que des définitions nouvelles en devront être élaborées. Les différents types d''interprétation' iront du jeu instrumental traditionnel à l'écoute, également traditionnelle, d'un enregistrement. Entre ces deux limites connues, nous avons déjà démontré l'existence de possibilités telles la distorsion d'un play-back à laquelle se livrent souvent les disc jockey. Mon programme de direction constitue un autre exemple où, une partition étant chargée dans l'ordinateur, [...] l'interprète dirige un orchestre simulé au moyen d'une baguette électronique."

*

C'est à Max Mathews que l'on doit le procédé dit de synthèse directe. Comme l'explique Jean-Claude Risset (qui fut l'un des proches collaborateurs de Mathews), il s'agit là du "procédé le plus général de synthèse des sons [...], qui consiste à charger l'ordinateur de calculer l'onde sonore dans tous ses détails."

Mathews en décrit très simplement le principe : "Un haut-parleur est relié à la sortie d'un ordinateur via un convertisseur digital-analogique...Des nombres stockés en mémoire [...] sont envoyés au convertisseur et déterminent les mouvements de la bobine du haut-parleur." Mais bien entendu, ce procédé suppose l'existence d'une médiation entre les nombres et les instructions qu'ils représentent. Selon Mathews, "s'il est possible en théorie de décrire une seconde de son au moyen de 30 000 nombres, en fait peu de compositeurs sont attirés par de telles ressources 'brutes', personne ne pouvant créer d'aussi énormes quantités de données. Un langage est nécessaire pour que le compositeur puisse s'exprimer en termes familiers traduisibles en échantillons de son par l'ordinateur. J'ai conçu un langage comportant un certain nombre de variantes dénommées MUSIC III, MUSIC IV, MUSIC IVF et MUSIC V. Au moyen de ce langage, le compositeur perfore sa partition sur des cartes d'ordinateur, partition comportant des notes décrites d'une façon presque traditionnelle, en termes d'instant d'attaque, de durée, de hauteur et d'intensité. Le compositeur doit aussi concevoir les instruments auxquels il désire confier sa partition. Il perfore donc également des cartes d'ordinateur qui indiquent comment agencer des blocs logiques (sous-programmes) standards constituant un programme d'instrument."

On peut certes penser ces "blocs logiques" à l'image des modules d'un synthétiseur, mais il faut alors rappeler, avec Risset, que MUSIC III "a été développé en 1959, plusieurs années avant l'apparition du synthétiseur de Moog".

*

On pourrait dire qu'avec les programmes de Mathews, l'instrument (organon) s'écrit en un organigramme. Et qu'il devient dès lors un instrument virtuel.

Mais Jean-Claude Risset souligne très justement que ce qui définit notamment le "geste instrumental", c'est sa capacité à "être modifié en fonction du son produit". Autrement dit, l'interprétation suppose un "contrôle auditif" qui nécessite à son tour "la production de sons 'en temps réel'." Or, comme le constate Mathews, "actuellement [c'est-à-dire en 1972], la plupart des ordinateurs ne sont pas assez rapides pour synthétiser les échantillons de son en temps réel". D'où l'idée d'utiliser l'ordinateur "pour commander un synthétiseur de sons analogique" car, dès lors, "les besoins en calcul sont bien plus réduits et une exécution en temps réel devient possible". C'est le système dit de synthèse hybride, dont GROOVE, développé par Mathews dans les laboratoires de la compagnie téléphonique Bell en 1970 est un des premiers exemples.

GROOVE condense ainsi plusieurs systèmes, de même que l'acronyme (pour Generated Real-time Operations On Voltage-Controlled Equipment) joue sur plusieurs registres sémantiques. En anglais, le groove est en effet le sillon d'un disque mais aussi, notamment dans le jazz, l'aisance avec laquelle le musicien se cale sur le tempo. "Posé sur le groove", comme dit MC Solaar. Si bien qu'ici, Mathews nomme à la fois, d'un même coup double, le temps différé et le temps réel, le play back et l'improvisation, l'enregistrement et l'interprétation live. Et c'est avec GROOVE que Mathews conçoit sa "baguette électronique", son "bâton" de chef d'orchestre "sensible linéairement dans les trois dimensions".

*

C'est encore Hiller qui, avec James Beauchamp et Pierre Ruiz, propose en 1971 des modèles physiques pour la synthèse numérique.

Un objet vibrant (et donc producteur de son) est décrit par ses dimensions, sa masse, son élasticité. Il est ébranlé par une force, il rayonne du son, subit des frottements avant de revenir au repos. Un tel comportement peut être simulé par un système plus ou moins complexe de masses et de ressorts, lui-même susceptible d'être traduit en équations. On obtient alors, théoriquement, les variations de l'onde acoustique résultante.

Une autre approche, celle de la synthèse modale, représente l'objet comme un ensemble de sous-structures vibrantes, chacune selon des modes spécifiques. Tel est le fondement du système MOSAÏC 2. Curtis Roads le décrit ainsi : "Vous êtes assis devant un établi virtuel sur lequel se trouve un lot d'objets que vous pouvez assembler pour créer des instruments. Ces objets sont des cordes, des colonnes d'air, des plaques métalliques, des membranes, ainsi que des chevalets de violon et de violoncelle. D'autres objets comme des archets, des marteaux et des plectres servent à exciter l'instrument..." Tous ces éléments peuvent être "connectés" par collage, frottement, pincement, percussion ou poussée. Ainsi dématérialisés, les instruments sont variables en taille (ils peuvent être agrandis ou rétrécis) et ils se combinent pour donner des hybrides. C'est donc une sorte d'infographie de la causalité instrumentale que proposent de tels programmes, toutefois déliée des contraintes matérielles.

*

Retour à Bach. Non pas celui de Walter Carlos, cette fois, mais celui d'Arielle Dombasle. "Arielle Dombasle chante Bach", lit-on dans toute la presse en février 1985. Et Madame Figaro explique : "La comédienne préférée d'Eric Rohmer interprète la Cantate 78 du maître de Leipzig... Avec comme musiciens un parterre de physiciens et, en guise de chef d'orchestre, un ordinateur. Son nom : 4X. Inventé par le physicien italien Pepino di Jugno (sic), 4X a été créé pour générer les sons." Certes, mais lesquels ? Réponse de Madame Figaro : "Tous les sons (de la goutte d'eau au vrombissement de l'avion) et tous les instruments de l'histoire de la musique..."

*

Dans Femme, Arielle Dombasle se souvient quant à elle du premier contact avec "l'appareil" : "Je me souviens de Hal, l'ordinateur fou, à l'écoute des astronautes dans 2001, le film de Kubrick. C'était de l'utopie. Mais là, face à moi, la 4X, elle, est bien réelle avec son cube tout simple, anodin. Grâce à ses 1 024 oscillateurs et ses 20 millions d'opérations par seconde, elle est capable d'écouter les sons, de les analyser, de les reconstituer, d'en inventer, d'en tirer des modèles mathématiques, des formules 'différentielles'." La fable s'écrit ainsi, en mêlant la précision des chiffres, le jargon à valeur connotative et la représentation animiste d'une machine dont l'activité est inversement proportionnelle à l'apparence.

*

Après la synthèse directe et la synthèse hybride, c'est cette fois la synthèse numérique mixte : la 4X est un synthétiseur entièrement numérique placé sous le contrôle d'un ordinateur.

*

Giuseppe (Peppino) Di Giugno, son concepteur, se souvient de deux rencontres importantes : "Après avoir fait ma thèse à Frescati (en physique nucléaire), je suis allé travailler à l'Université de Naples en 1963. Par hasard, j'ai écouté le fameux disque Switched-on Bach de Walter Carlos (un des premiers tours de force de la musique réalisée par synthétiseur analogique). J'ai été complètement enthousiasmé par la grande diversité des timbres... Le deuxième hasard qui m'a attiré vers la musique électronique a été ma rencontre avec Robert Moog, un des grands pionniers de la technologie des synthétiseurs." Dès lors, Di Giugno se met à "bricoler" (c'est son mot) "des petits synthétiseurs dans le style de Moog". Avec toutefois une "grande différence" : Di Giugno n'est pas pianiste, il ne sait pas "jouer au clavier", si bien qu'il lui faut "trouver une autre méthode de commande". C'est le synthétiseur numérique, doté d'oscillateurs digitaux : "Étant donné qu'après tout je faisais ces machines pour mon propre plaisir, [...] j'ai donc pris la décision de contrôler mes sources sonores directement avec un ordinateur."

Di Giugno démissionne de l'Institut National de Physique Nucléaire italien. "Pour commencer à m'occuper à plein-temps de musique électronique", dit-il. C'est une période "assez difficile", qui prend fin en 1975 : "Mon travail est arrivé aux oreilles de Luciano Berio qui venait d'être nommé directeur du département électro-acoustique de l'I.R.C.A.M. Berio cherchait quelqu'un pour reprendre la construction d'un synthétiseur important. Il m'a présenté au printemps 1975 à Max Mathews (le conseiller scientifique de l'I.R.C.A.M. à l'époque) qui m'a fait cadeau de son livre [il s'agit de The Technology of Computer Music, publié en 1969]. En le lisant, j'ai compris pour la première fois la nécessité de concevoir une machine purement digitale pour la musique et l'importance d'une interaction avec une telle machine en 'temps réel'..."

*

La 4X est donc un moment singulier au sein d'un processus de miniaturisation et d'accélération de la synthèse numérique. Processus qui se poursuit jusqu'aux actuelles stations de travail en passant par le Synclavier ou encore par le DX7 de chez Yamaha, commercialisé en 1983 et vendu par centaines de milliers d'exemplaires. Ce succès est lié à la compatibilité avec MIDI.

*

Robert Moog écrit régulièrement dans le magazine Keyboards. En juillet 1983, il revient du NAMM Show, la foire annuelle qui réunit aux États-Unis les membres de la National Association of Music Merchants. On y débattait d'une nouvelle norme dont la version définitive venait d'être arrêtée quelques mois auparavant : Musical Instruments Digital Interface, ou MIDI.

L'article de Keyboards est donc signé Bob Moog. Il s'ouvre sur un vaste rappel historique : "Quand les musiciens ont commencé à utiliser des instruments électroniques pour créer et archiver de la musique, ils ont développé de nouvelles manières de traiter le son musical en construisant des 'réseaux' (networks), c'est-à-dire des schémas d'interconnexion (interconnection patterns) entre des appareils qui produisent et modifient le matériau audio. Plus tard, il y a environ vingt ans, les musiciens ont été initiés (introduced) au concept de commande en tension (voltage control), ce qui leur a permis de mettre au point des réseaux traitant les 'informations' concernant la manière dont le matériau audio est sculpté (shaped) ou dessiné (contoured)."

Deux grandes étapes, donc, dans ce devenir-réticulaire de l'instrumentalité musicale (la seconde étant bien sûr le fait du signataire de l'article dont on se souvient comme étant l'inventeur des synthétiseurs modulaires). Enfin, "tout récemment" (nous sommes en 1983), "la technologie des microprocesseurs a permis aux musiciens de traiter exhaustivement (comprehensively) l'information et le contrôle au sein des systèmes musicaux". On a en effet établi des "réseaux de communications numériques" (digital communications networks) entre des instruments. Et ces réseaux transmettent non seulement l'information concernant l'évolution temporelle des données musicales (ce que Moog appelle the contours of musical changes), mais aussi "les localisations au sein du système", c'est-à-dire les adresses (addresses) auxquelles les informations doivent être envoyées.

La morale de cette fable généalogique en trois temps est qu'"à chaque avancée technologique, [...] l'industrie audio adopte des spécifications normalisées (standard specifications) pour les interconnexions". Métaphore filée : "Pour les musiciens électroniques [entendez : ceux qui jouent ou composent de la musique dite électronique], travailler sans de telles normes équivaut à la frustration qu'endurerait un compositeur traditionnel s'il se mettait à orchestrer une pièce de musique à une période supposée de l'histoire où, parmi tous les musiciens en activité, il n'y en aurait pas deux pour jouer du même instrument ou pour s'accorder de la même manière !"

Après ce point d'exclamation, on se retrouve donc "à un point de la techno-histoire (at a point in techno-history) où les fabricants de musique électronique s'accordent généralement pour dire qu'une spécification normalisée concernant les instruments numériquement contrôlés serait extrêmement bénéfique".

*

Et nous voici revenus à MIDI. Moog le dit bien : MIDI n'est pas "une norme universelle", et MIDI n'est certainement pas "la seule possibilité d'interface musicale électronique". Mais MIDI a été "développé et proposé par plusieurs grands fabricants de matériel" (several prominent equipment manufacturers).

Après la macrologie de l'histoire à grands pas, voici donc la micrologie des négociations : "A ma connaissance," écrit Moog, "la première proposition formelle d'interface pour les instruments de musique est celle faite par Dave Smith et Chet Wood lors des rencontres de l'Audio Engineering Society, à l'automne 1981 à New York. Leur norme, Smith et Wood la baptisèrent 'Universal Synthesizer Interface' (USI). Smith, qui est président de Sequential Circuits, entreprit alors de rassembler les commentaires et les suggestions des autres fabricants. De nombreux responsables se réunirent en janvier 1982 à Anaheim lors des rencontres de la National Association of Music Merchants (NAMM) et plusieurs améliorations et modifications furent ajoutées à la norme. Persuadés par les conclusions des rencontres d'Anaheim, plusieurs fabricants japonais s'associèrent pour joindre le résultat de leurs recherches à la norme d'interfaçage. Leurs résultats furent transmis à Smith et Wood, qui rédigèrent alors une esquisse préliminaire de MIDI. On abandonna le mot 'universel' afin d'éviter des retombées juridiques (legal repercussions), et l'on ajouta le mot 'digital' pour clarifier la nature de l'interface. Des esquisses de MIDI se mirent à circuler parmi les responsables de chez Sequential Circuits, Roland, Korg, Yamaha et Kawai, jusqu'à ce qu'un consensus se dégage...Bien que la norme MIDI existe maintenant sous la forme d'un document formel et complet, elle n''appartient' à aucune compagnie en particulier."

MIDI, c'est donc le réseau des instruments de musique numériques qui communiquent entre eux et se pilotent l'un l'autre.

*

On parle de la midification d'un instrument traditionnel comme le piano. C'est-à-dire qu'on le modifie en ajoutant sous chaque touche un capteur sensible, relié à un micro-ordinateur qui traduit les informations captées en format MIDI.

*

Avec la micro-informatique des PC (personal computers) d'IBM ou des Macintosh d'Apple, avec la commercialisation de puissants processeurs de signal numérique (digital signal processor), la fin des années quatre-vingt voit la généralisation des stations de travail audio.

Comme le souligne Curtis Roads, les données sociologiques et institutionnelles de l'informatique musicale s'en trouvent bouleversées : "La musique par ordinateur ressemblait à une fleur exotique qui ne pouvait être maintenue en vie qu'en laboratoire, soignée par des experts sous l'égide d'un institut de recherche grassement nanti. Aujourd'hui [en 1990], elle est sortie de la serre institutionnelle et [...] la recherche, tout comme la création musicale, peuvent s'effectuer dans un studio de musique privé."

*

En hommage à Mathews, l'environnement de programmation développé à l'IRCAM par Miller Puckette est baptisé MAX. FTS, l'"exécutif" de MAX, effectue en temps réel les traitements sonores. C'est un acronyme (permettant donc de gagner du temps et des signes) pour faster than sound : plus vite que le son.

*

"La principale idée de MAX, écrit Philippe Manoury dans son Manuel d'utilisation, est celle de virtualité." A l'écran, on ouvre une boite, on la nomme : ce sera, par exemple, un oscillateur. On lui adjoint un potentiomètre, on trace des cordons qui les relient. Bref, on crée, selon le principe des synthétiseurs modulaires, une configuration d'éléments qui, connectés les uns aux autres, forment un patch. Mais MAX n'est pas un synthétiseur (numérique). C'est un programme qui fournit des patchs virtuels, pour gérer les valeurs envoyées à tel ou tel synthétiseur (numérique).

*

Il faut un terme provisoire à cette généalogie réticulée. Ce sera cette pousse singulière d'une très vieille branche : Internet.

*

Certes, comme le remarque très justement Denis Fortier, "dans leur principe, les 'orchestres en ligne' ne sont pas une nouveauté". Avec des systèmes de liaison à haut débit, réservés jusqu'à présent aux professionnels, un chanteur enregistre à Paris tout en étant "accompagné en direct par une section rythmique jouant depuis Los Angeles et par un orchestre à cordes installé à Dublin". On pense à Glenn Gould, à son pari "polisson", comme il disait. Car voici le chef d'orchestre : il est "filmé par une caméra vidéo dont les images sont transmises par satellite aux différents studios en même temps que le son". Avec un accent anglais ou français : "L'album Duet de Frank Sinatra, et Je te dis vous, le dernier CD de Patricia Kaas, ont été enregistrés de cette façon."

Les particuliers qui se connectent à la "toile" sont quant à eux condamnés au débit des lignes téléphoniques ordinaires. Si bien que la telharmonie du Web ne permet guère de transmettre en temps réel des sons numérisés de qualité. On procède par téléchargement, en temps différé : on attend que l'ordinateur enregistre les fichiers audio (les délais sont parfois longs, surtout aux heures de pointe sur le réseau), puis on écoute.

*

A Cannes, au MIDEM, les professionnels du disque discutent la cyberdiscothèque et le juke-box en ligne du futur. Comme le souligne Luc Vachez, depuis quelques temps, "la plupart des maisons de disques proposent [des] échantillons en ligne pour assurer la promotion de leurs titres". Mais ce qui est nouveau (en février 1996), c'est l'apparition (encore expérimentale) des "premiers juke-box commerciaux en ligne, comme Cerberus à Londres ou France en Ligne (Frel) à Paris".

On envisage que "les plages téléchargées par l'utilisateur" puissent être non seulement écoutées depuis l'ordinateur mais encore enregistrées sur un disque compact : selon le responsable de Frel, "le pressage d'un CD fait aussi partie de l'expérience".

Les problèmes de droits sont toutefois loin d'être résolus, même si Cerberus est parvenu à conclure des accords avec les maisons de disque en prévoyant "un reversement aux ayants droit traditionnels". Ainsi : "Éditeurs et musiciens indépendants choisissent les morceaux qui sont mis à disposition sur le serveur Web et en fixent le prix. Pour parer au danger du piratage, les fichiers téléchargeables sur le digital jukebox sont codés. Le client doit donc obligatoirement disposer du logiciel maison (Player) pour déchiffrer son fichier et le lire sur une chaîne audio reliée à l'ordinateur."

*

Mais la toile évolue aussi vers l'écoute et le jeu en temps réel.

Des logiciels comme RealAudio ou InternetWave sont utilisés pour accélérer la diffusion du son en continu. IWave a ainsi été choisi par le Ministère de la Culture pour permettre l'écoute d'Un espace pour la tolérance de Jean-Michel Jarre, sur le site inauguré par Philippe Douste-Blazy le 20 décembre 1995. Mais la technique utilisée (le remplissage d'un réservoir tampon) crée une écoute d'autant plus hachée que le réseau est encombré.

Par ailleurs, Denis Fortier rapporte que "plusieurs serveurs se sont spécialisés dans le happening musical permanent" : "Le jeu consiste à piocher une séquence musicale de quelques secondes dans une banque de données. Chaque participant peut alors s'approprier ces quelques mesures puis en modifier la construction, rajouter des notes, les fondre dans de nouvelles séquences et renvoyer le tout vers d'autres sites. Ces musiques voyageuses parcourent la planète plusieurs fois par jour..."

*

POST-SCRIPTUM (avril 1996).

Le dernier hors série du magazine Keyboards est consacré au phénomène dit vintage. Du classique, de la bonne cuvée. Le magazine raconte donc l'histoire des bons vieux synthétiseurs analogiques (synthé story), en donnant au passage l'adresse des spécialistes de la midification ou de la restauration de ces "antiquités" (sic).

Mais le magazine fait également le point sur le "web analogique". Car on trouve en effet sur la toile des sites consacrés au theremin (avec des photos des modèles proposés par Robert Moog, de l'"immortelle Clara Rockmore" et de Leon Theremin en personne ou à l'histoire des instruments électroniques. On y trouve en fin un "musée virtuel du synthétiseur".


(1) Un programme réalisé à l'IRCAM par Jacques Duthen, Mikael Laurson et Camilo Rueda.

(2) Mis au point à l'IRCAM parJean-Marie Adrien et Joseph Morrison, puis rebaptisé MODALYS pour ses versions récentes.


Sources (par ordre alphabétique)

Michel Alberganti ("Internet apprend laborieusement la musique", Le Monde, décembre 1995)
Gérard Assayag (CAO : vers la partition potentielle, dans les Cahiers de l'Ircam, 1993, n° 3)
Marc Battier (Une nouvelle géométrie du son : le paradoxe de la lutherie électronique, dans les Cahiers de l'Ircam, 1995, n° 7)
Michel Braudeau (La planète des stars, Le Monde, janvier 1996)
Alexander Buchner (Les instruments de musique mécanique)
Hugh Davies (articles Drawn Sound et Electronic Instruments dans le New Grove Dictionary of Musical Instruments)
Philippe Depalle et Xavier Rodet (De la voix aux instruments, dans les Cahiers de l'Ircam, 1993, n° 2)
Giuseppe Di Giugno (entretien dans Quoi, quand, comment, la recherche musicale)
Hugues Dufourt (La dialectique du son usiné)
Père Engramelle (La tonotechnie, ou l'art de noter les cylindres, et tout ce qui est suceptible de notage dans les instrumens de concerts méchaniques)
Denis Fortier (Le boeuf sur la «toile», Le Monde, janvier 1996)
Glenn Gould (Contrepoint à la ligne)
Hermann Ludwig Ferdinand von Helmholtz (Lehre von Tonempfindung)
Lejaren A. Hiller, Jr. (Informationstheorie und Computermusik)
Keyboards,
hors série n° 14
Athanasius Kircher (Phonurgia nova et Musurgia universalis)
Jean-Baptiste de La Borde (Le clavessin électrique, avec une nouvelle théorie du méchanisme et des phénomènes de l'électricité)
Jean Laurendeau (Maurice Martenot, luthier de l'électronique)
Jörg Mager (Biographisches zum Sphärophon, dans Musikblätter des Anbruch, ainsi que Vierteltonmusik et Eine neue Epoche der Musik durch Radio)
Philippe Manoury (Manuel d'utilisation de MAX)
Max Mathews (The technology of computer music ; L'ordinateur en tant qu'instrument de musique, dans La Musique en projet ; ainsi que quelques lignes dans Utopies, quatrième numéro des Cahiers de l'Ircam, 1993)
Mersenne (Harmonie universelle et Correspondance)
Werner Meyer-Eppler (Elektronische Kompositionstechnik, dans Melos)
Bob Moog ("MIDI", dans The Keyboard Synthesizer Library)
Harry F. Olson et Herbert Belar (Electronic Music Synthesizer, dans Journal of the Acoustical Society of America)
Charles Grafton Page (The Production of Galvanic Music, American Journal of Science)
Thomas L. Rhea (The Evolution of Electronic Musical Instruments in the United States)
Jean-Claude Risset (Musique et informatique, dans La Musique en projet ; Synthèse et matériau musical, dans les Cahiers de l'Ircam, 1993, n° 2)
Curtis Roads (La recherche musicale : mythe et réalité, dans InHarmoniques ; Des instruments pour un son organisé et Initiation à la synthèse par modèles physiques, dans les Cahiers de l'Ircam, 1993, n° 2)
Oskar Sala (entretien paru dans Keyboards)
Georges Sbriglia (L'exploitation des oeuvres musicales par les instruments de musique mécaniques et le droit de l'auteur)
Pierre Schaeffer (Traité des objets musicaux)
Siegfried Scheffler (Melodie der Welle)
Adolf Slaby (Entdeckungen in den elektrischen Ozean)
Joachim Stange (Die Bedeutung der elektroakustischen Medien für die Musik im 20. Jahrhundert)
Karlheinz Stockhausen (Musique électronique et musique instrumentale)
Leo Theremin (Ätherwellenmusik und neue Wege der Musik, dans Funk)
Friedrich Trautwein (Elektrische Musik, et Das elektronische Monochord, dans Technische Hausmitteilungen des NDWR)
Luc Vachez (Musique, [Cyber]Maestro, Libération, février 1996)
Oskar Vierling (Elektrische Musik)
Vitruve (De architectura)
Reynold Weidenaar (Magic Music from the Telharmonium).

____________________________
Server © IRCAM-CGP, 1996-2008 - file updated on .

____________________________
Serveur © IRCAM-CGP, 1996-2008 - document mis à jour le .