Serveur © IRCAM - CENTRE POMPIDOU 1996-2005. Tous droits réservés pour tous pays. All rights reserved. |
Rapport Ircam 19/79, 1979
Copyright © Ircam - Centre Georges-Pompidou 1998
Dans le Département Électro-acoustique, dirigé par Luciano Berio, Giuseppe di Giugno a conçu, puis réalisé une machine portable, capable de synthétiser des sons en temps réel. Cette machine peut être utilisée en studio comme instrument de composition musicale, mais également comme instrument musical en situation de concert. Cette machine, qui est en réalité un mini-ordinateur spécialisé dans la production et le traitement du son, est elle-même contrôlée par un petit ordinateur à fonction plus générale qui supervise l'ensemble de ses opérations. La machine de G. di Giugno a fait ses débuts en concert lors de l'ouverture de l'Espace de Projection en octobre 1978.
Parallèlement à la construction dans le Département Électro-acoustique de ce nouveau système de synthèse du son, le Département Ordinateur, dirigé par Jean-Claude Risset, a mis au point des programmes qui permettent l'accès à cette machine. Ce langage pourra également servir de base aux recherches actuellement menées à l'IRCAM (avec l'aide de la D.G.R.S.T.) sur un terminal qui permettra au public de faire, à l'aide de l'un des synthétiseurs de l'IRCAM, des expériences de génération et de transformation des sons.
Les synthétiseurs numériques conçus et réalisés à l'IRCAM ainsi que les langages de synthèse utilisables sur le grand ordinateur créent des sons en combinant des éléments simples pour aboutir à un résultat final complexe. Un tel processus exige, de la part du compositeur, des connaissances extrêmement précises sur la structure physique du son, ce qui l'éloigne, dans une certaine mesure, de sa méthode de travail habituelle. En effet, le compositeur est davantage habitué à donner un ordre et une signification à un matériau pré-existant. Une alternative à cette forme de synthèse est proposée dans un projet de synthèse de la parole mis au point par Xavier Rodet dans le Département Diagonal que dirige Gerald Bennett. Dans ce cas, un petit ordinateur synthétise la parole directement à partir d'un texte tapé au clavier d'un terminal. La synthèse est très rapidement réalisée parce que la plupart des informations nécessaires pour créer l'onde sonore se trouvent déjà stockées dans l'ordinateur sous forme d'éléments phonétiques comportant une structure acoustique complexe. Après une analyse sommaire du texte enregistré, l'ordinateur calcule les transitions entre ces éléments, puis les assemble, au lieu de créer l'onde sonore à partir de ses composants de base. Ce processus de synthèse sera généralisé de façon à pouvoir incorporer et stocker d'autres informations, différentes de la parole. Le compositeur pourra ainsi définir son propre univers sonore et se consacrer davantage aux relations entre les éléments, plutôt qu'à la fabrication du son lui-même.
Un autre domaine important de la recherche en 1978 a trait à l'acoustique des espaces. L'Espace de Projection, dont la construction est à présent terminée, dote l'IRCAM d'un laboratoire acoustique exceptionnel. Cet espace, d'un volume de plus de 5000 m3, a un temps de réverbération qui peut varier d'environ 0,5 à 4,5 secondes, performance qui n'a jamais été atteinte jusqu'ici dans un seul et même lieu. De plus, le timbre des sons produits dans l'Espace de Projection peut être contrôlé en réglant la proportion des panneaux qui absorbent les hautes fréquences et de ceux qui absorbent les basses fréquences. Plusieurs opérations de mesure très complètes ont été menées cette année dans l'Espace de Projection. L'analyse de leurs résultats confirme qu'il faudra revoir entièrement certaines formules classiques qui décrivent le comportement du son dans les espaces clos. La redéfinition de la représentation mathématique du temps de réverbération ainsi que les formules s'y rapportant font l'objet d'un projet de recherche pour 1979. Egalement dans le domaine de la recherche théorique, James A. Moorer a mené une série d'études importantes concernant la stimulation des espaces acoustiques à l'aide de techniques numériques. Cette question intéresse tous les compositeurs qui utilisent la synthèse numérique du son. Moorer a réussi à montrer l'insuffisance des techniques classiques généralement utilisées pour simuler la réverbération du son. Il a proposé, dans son étude, une nouvelle méthode de simulation.
L'année 1978 a également été consacrée au développement des outils déjà existants de l'IRCAM. Le plus grand effort a porté sur l'installation des studios destinés aux compositeurs, avec leurs matériels d'enregistrement et de transmission du son. En particulier, l'achèvement d'un studio de contrôle directement lié à l'Espace de Projection en a fait le studio d'enregistrement le plus souple du monde, en raison de ses possibilités acoustiques multiples. On trouvera des détails sur la configuration des studios de l'IRCAM dans l'Annexe II de ce rapport. Un autre investissement important a porté sur le développement d'un système informatique multi-utilisateurs, utilisé par pratiquement tous les chercheurs et musiciens de l'IRCAM. D'importantes améliorations ont été apportées au système lui-même, permettant de réaliser les opérations de synthèse de la musique sans entraver les autres tâches. En outre, une extension du principal programme destiné à la synthèse du son, Music V, permet désormais d'enregistrer des sons naturels dans l'ordinateur et de les transformer. D'autres travaux d'aménagement des programmes, trop nombreux pour être mentionnés ici, ont également été réalisés. On trouvera dans l'Annexe I des détails sur les ordinateurs utilisés à l'IRCAM. Enfin, le Département Instruments et Voix, dirigé par Vinko Globokar, a construit le prototype d'une nouvelle flûte qui répond aux nombreuses exigences de la musique contemporaine, sans pour cela négliger la richesse et les points forts de la flûte classique.
Pendant la seconde moitié de 1978, après la fin de l'installation des équipements et du personnel, l'IRCAM a pu commencer à inviter des compositeurs. Entre juin et octobre, trois oeuvres importantes ont été réalisées à l'IRCAM : « Wellenspiele » de Balz Truempy, « Arcus » de York Höller oeuvres toutes deux commandées par l'IRCAM pour l'ouverture de l'Espace de Projection, et « Mirages » de Jean-Claude Risset, commande du Festival de Donaueschingen. Chacune de ces oeuvres fait appel à des techniques différentes. L'oeuvre de Truempy, en particulier, fait appel à la machine construite dans le Département Électro-acoustique, en la reliant au jeu des instrumentistes. Les deux autres oeuvres utilisent des instruments et une bande quatre pistes synthétisée par ordinateur.
Il importe de remercier la D.G.R.S.T. pour son aide qui a permis de financer entièrement ou partiellement certains projets, notamment le projet de synthèse de la parole, ainsi que la visite de certains des chercheurs étrangers qui ont travaillé à l'IRCAM. Des chercheurs sont venus, en particulier, des universités de Bruxelles, Erlangen, Goettingen, Hambourg, Londres, New-York, Paris V, Paris VI, Massachusetts Institute of Technology, Stanford (USA), de l'Académie Royale de Technologie de Stockholm, des Laboratoires Bell (USA), et du C.N.R.S.
L'IRCAM est également très reconnaissant pour le soutien moral et financier donné par la Fondation IRCAM, en particulier par son Président, Paul Sacher.
La première Session de Formation pour les compositeurs, organisée par le Département Pédagogique, dirigé par Michel Decoust, a eu lieu du 6 novembre au 20 décembre. Au cours de cette session, les participants ont visité les studios suivants : le G.R.M à Paris, le G.M.E.B. à Bourges, l'E.N.S.E.R.G. à Grenoble et le G.M.E.M. à Marseille.
L'IRCAM a également reçu des stagiaires du Conservatoire National des Arts et Métiers, de l'École Nationale Supérieure des Télécommunications, du Groupe de Recherches Musicales, et de l'École Nationale Supérieure de Physique de Marseille. De plus, un groupe conduit par le compositeur Pierre Barbaud, ainsi qu'un second groupe placé sous la direction de Patrick Greussay, professeur d'informatique à l'Université de Vincennes, ont été invités à travailler régulièrement à l'IRCAM pour réaliser leurs propres projets.
L'IRCAM a publié, durant l'année 1978, 18 rapports scientifiques et les collaborateurs de l'IRCAM ont été invités à prendre la parole à de nombreux congrès professionnels, notamment à Aarhus (Danemark), Chicago, Hambourg, Honolulu, Madrid et Stockholm.
Bien que la conception de la machine 4C soit avant tout orientée vers la synthèse du son, le système consiste, en fait, en 4 micro-modules très rapides, un additionneur, un multiplicateur, un « modificateur » dont les données d'entrée sont modifiées par une fonction stockée en mémoire, et une unité logique. Ces modules sont multiplexés pour donner les unités structurales de base suivantes : 64 oscillateurs, 96 multiplicateurs, 32 unités logiques, 64 unités modificatrices, et 32 horloges. Les opérations et les interconnexions propres à chaque micro-module sont fixées par micro-programme et c'est la structure particulière de ce micro-programme, emmagasiné dans une mémoire morte (ROM), qui explique la rapidité remarquable de la machine 4C. Ces connexions sont de la sorte inaccessibles à l'utilisateur, bien qu'elles puissent être changées s'il le désire. En revanche, les interconnexions entre les unités de base sont entièrement contrôlées par l'utilisateur et sont définies par programme.
Bien qu'en théorie le nombre d'interconnexions possibles entre les éléments de base soit très grand, certaines combinaisons d'éléments reviennent plus souvent dans la synthèse et le traitement du son. Pour rendre ces combinaisons plus facilement disponibles, di Giugno, a entrepris, avec la collaboration de Jean Kott, La mise au point d'une série de sous-programmes représentant les configurations de la machine les plus fréquemment utilisées. Ces sous-programmes peuvent naturellement être combinés entre eux ou avec les unités de base pour former des configurations plus complexes que l'on peut appeler par une seule commande. Dès la première phase d'expérience, di Giugno a estimé qu'il valait mieux éviter les programmes généraux de contrôle, et qu'il était préférable de tenir compte de l'expérience acquise (grâce à l'utilisation de petites fonctions spécifiques et aux besoins musicaux dont l'évidence s'impose lors du contact avec la machine), pour déterminer la forme qu'un programme de contrôle prendra plus tard. Le système final consistera en un grand nombre d'éléments différents d'une complexité semblable à celle de la machine 4C, mais chargés de fonctions différentes (réverbérateurs, mixeurs numériques, etc.). C'est pourquoi le programme de contrôle général devra tenir compte des besoins de tous ces éléments individuels tout comme des opérations de contrôle du système entier.
La première utilisation publique de la machine 4C a eu lieu au cours des concerts donnés pour l'ouverture de l'Espace de Projection de l'IRCAM en octobre, puis une semaine plus tard en Allemagne au festival de Donaueschingen. La machine a été utilisée par le jeune compositeur suisse Balz Truempy pour « Wellenspiele » pour instruments et synthétiseur, oeuvre commandée par l'IRCAM. Cette oeuvre exigeait que la synthèse opérée par la machine 4C fût contrôlée et dirigée par les instruments en temps réel. Étant donné que ce premier prototype ne permettait pas l'entrée du son réel, des détecteurs d'enveloppe furent utilisés pour fournir des signaux à la machine. Une version plus récente de la machine 4C permet d'utiliser des sons réels codés numériquement en guise d'information de contrôle.
Pour les concerts de l'Espace de Projection, la machine 4C était reliée à un ordinateur PDP11/55 situé dans le Département Électro-acoustique. Le terminal visuel, les détecteurs d'enveloppes et plusieurs contrôles manuels étaient placés dans l'Espace et envoyaient leurs signaux à la machine 4C grâce aux connexions permanentes qui existent entre l'Espace et le reste du bâtiment. Pour le concert de Donaueschingen, Digital Equipment Corporation (Allemagne) a prêté et installé généreusement un ordinateur PDP11/40 dans la Salle des Sports où le concert avait lieu. La machine 4C, quant à elle, est aisément transportable.
Les programmes pour l'oeuvre de Truempy ont été écrits par G. di Giugno et Jean Kott. La conception des instruments virtuels utilisés sur la machine a été réalisée par Batz Truempy et Neil Rolnick, qui participait également à l'exécution de l'oeuvre.
Qu'elles soient effectuées sur des ordinateurs non spécialisés, ou sur des dispositifs spécialisés, la plupart des synthèses de son à l'IRCAM sont obtenues en reliant entre eux des modules simples (oscillateurs, générateurs de rampes, multiplicateurs, etc.) pour constituer des instruments virtuels complexes. Ces modèles peuvent être des sous-programmes ou des circuits, mais ils nécessitent de toute façon une connaissance poussée du traitement du signal et la capacité de définir la structure du son à partir de ses éléments les plus petits, ce qui est assez rare parmi les compositeurs. Une importante alternative à cette conception de la synthèse a été développée à l'IRCAM durant l'année dernière par Xavier Rodet.
Ce système de synthèse du son est issu d'un système de synthèse de la parole par règles, développé par Rodet au Service d'Électronique du Centre d'Etudes Nucléaires de Saclay. Ce système accepte en entrée sur un terminal d'ordinateur un texte ordinaire, et calculé par règles certains paramètres acoustiques (fréquence du fondamental, fréquences et amplitudes des formants) pour chaque période fondamentale de la chaîne phonétique, tout en tenant compte de certaines caractéristiques prosodiques. Le signal acoustique est construit comme une somme de formes d'ondes formantiques en fonction des paramètres précédemment déterminés. Le calcul du signal n'est pas plus long que le temps requis pour prononcer la phrase.
La transcription phonétique d'un texte est effectuée par un programme qui rend compte des règles de prononciation courante de chaque lettre de l'alphabet dans un contexte donné. L'ensemble des règles est complété par un court dictionnaire d'exceptions (environ 500 mots) et a été testé sur un dictionnaire français de 65.000 mots. La phrase est divisée en « groupes prosodiques » au moyen d'une liste de ce que Rodet appelle « mots grammaticaux » (articles, pronoms, adjectifs pronominaux, prépositions et conjonctions). Le schéma mélodique est constitué d'une ligne générale décroissante du début à la fin de la phrase, à laquelle se superpose un schéma, montant sur chaque groupe intonatif non-terminal, descendant sur le groupe terminal.
Le calcul des paramètres acoustiques est fait pour chaque pseudo-période fondamentale dans les sons voisés et pour chaque segment de durée semblable dans les sons non-voisés. En premier lieu, le programme détermine un certain nombre de caractéristiques des phonèmes (nasalité, occlusion, friction et positions des articulateurs dans des contextes donnés VCV ou CVC. Puis la fréquence fondamentale et les fréquences et les amplitudes d'un nombre variable de formants ou de composants bruités sont calculées par règles en fonction de ces caractéristiques et des contextes CVC et VCV.
Le signal est calculé période par période (ou segment par segment dans les sons non voisés) en utilisant une somme de M (M<7) fonctions d'ondes, chacune correspondant à un ou plusieurs formants. Ces fonctions proviennent de parole enregistrée. Pour les sons voisés, le système utilise quatre fonctions tabulées obtenues par un modèle de prédiction linéaire d'une période de voyelles naturelles. Le calcul d'une forme d'onde est initialisé au début de chaque période fondamentale et est poursuivi jusqu'à atténuation suffisante durant la période suivante, au cours de laquelle elle est ajoutée échantillon par échantillon à la nouvelle forme d'onde initialisée au début de la période fondamentale suivante.
La recherche de Rodet à l'IRCAM en 1978 a porté essentiellement sur deux points : d'une part sur l'amélioration des algorithmes et des techniques de construction du signal de la parole, d'autre part, sur la modification de la structure du système pour lui permettre de traiter des informations acoustiques plus générales.
La conception de ce langage de contrôle suit de très près celle de la machine 4B. Les caractéristiques de cette machine peuvent se résumer ainsi : c'est un synthétiseur numérique, comportant 64 oscillateurs multiplexés, capables de générer la modulation de fréquence et d'opérer à un taux d'échantillonage de 32 kHz, 128 générateurs de rampe opérant à 4 kHz et 15 registres généraux utilisés pour interconnecter les oscillateurs et les générateurs de rampe. Mais alors qu'un oscillateur analogique est un élément dont la valeur demeure constante jusqu'à ce qu'on la change, un oscillateur de la machine 4B est contrôlé par deux fonctions de rampe qui peuvent naturellement demeurer constantes, mais qui sont, la plupart du temps, destinées à changer. Pour contrôler les rampes de fréquence et d'amplitude il faut chaque fois trois informations : -- la valeur initiale, la valeur finale et l'incrément. Lorsqu'il reçoit cette information l'oscillateur commence à jouer et n'a plus besoin d'autre système de contrôle. Quand une rampe atteint sa valeur finale elle envoie une interruption à l'ordinateur de contrôle, demandant des informations supplémentaires. Dans le système de Prévot ces trois quantités s'intitulent « plex » et constituent la nature essentielle des données envoyées par l'ordinateur de contrôle à la machine 4B.
Un aspect important du langage de Prévot est qu'il est en grande partie piloté par interruption. La machine 4B tout comme les contrôles manuels envoient à l'ordinateur de contrôle des interruptions qui sont servies immédiatement, arrêtant tout ce qui peut se passer au même instant. Quand toutes les interruptions ont été servies, le processeur en temps réel donne le contrôle à l'arrière plan pour s'occuper de questions moins urgentes. La question de savoir si une opération en temps réel sera servie par interruption ou par le moniteur d'arrière plan est en grande partie du ressort de l'utilisateur. Pour l'ordinateur de contrôle, toutes les interruptions sont les mêmes, qu'elles viennent de la 4B ou d'entrées en temps réel.
Si l'on utilise le processeur de langage, il faut écrire pour la machine 4B et les entrées en temps réel un programme qui comporte des instructions sur les connexions internes qui doivent se faire dans la machine, ainsi que la définition de toutes les fonctions que l'on veut utiliser. Le langage peut être utilisé de deux manières différentes : ou bien l'on écrit un certain nombre de fichiers que l'on peut rappeler et jouer, comme cela serait le cas pour l'exécution d'une pièce, ou bien l'on travaille de façon interactive avec la machine, en écoutant l'effet de chaque nouvel ordre donné au terminal, en ajoutant et en supprimant librement du texte, etc. La frontière entre ces deux modes d'utilisation est très souple, car un simple aiguillage permet à l'utilisateur de mettre en fichier ce qu'il vient de réaliser de façon interactive ou bien de corriger un fichier existant, en remettant à plus tard la décision de garder ou de rejeter ces corrections.
La notation des connexions internes de la machine 4B exige une connaissance intime de la structure de la machine. On ne peut donc que suggérer ici l'allure de ces notations. Pour définir les connexions pour chaque unité physique de la machine (un oscillateur), quatre éléments sont nécessaires : le nom d'un registre pour la modulation de fréquence (si l'on en a besoin), le nom de l'endroit où se trouve l'information sur la fréquence (que ce soit une constante, une fonction ou une entrée en temps réel), le nom de la table d'onde générant la forme d'onde désirée, et le nom de l'endroit où se trouve l'information sur l'amplitude de cet oscillateur ou de l'instrument. Cette information est dirigée vers les 15 registres généraux de la machine 4B.
La seconde partie du programme doit consister en une définition de toutes les fonctions nécessaires. Les fonctions de la table d'onde peuvent se lire à partir d'un fichier sur disque et comportent généralement 4096 mots de 14 bits. D'autres fonctions peuvent être définies au télétype et sont des fonctions en escalier ou en lignes brisées. Ce sont, en particulier, les fonctions en lignes brisées ou d'interpolation qui doivent être utilisées pour les enveloppes pour lesquelles l'on veut obtenir des temps d'attaque et de décroissance constants, tout en changeant l'échelle du reste de la fonction selon la durée de l'événement pour lequel l'enveloppe est utilisée.
En dehors de ces deux parties principales du programme, il existe un certain nombre d'instructions que l'on peut utiliser spécialement pour un contrôle temporel. L'une d'entre elles s'appelle « métronome » ; elle détermine la valeur de l'unité de durée de base qui sert de référence lorsque l'on exécute une partition. L'instruction « métronome » peut également être associée à un contrôle en temps réel ou à une fonction ; on peut donc la faire varier soit manuellement, soit par programme pendant l'exécution. Une autre instruction s'intitule « pulsation » ; elle fournit une interruption régulière dont le rythme peut être également déterminé, soit par une entrée en temps réel, soit par une fonction. Il est nécessaire, par la suite de préciser davantage la fonction de pulsation en l'associant à une action et à un élément sur lequel elle devra agir. Il existent également plusieurs autres instructions, qu'il serait fastidieux de recenser en détail dans ce rapport.
Ce langage est actuellement utilisé pour un projet portant sur un terminal de contrôle que le public de la Bibliothèque Publique du Centre Georges Pompidou pourra utiliser. Enfin Philippe Prévot est également chargé d'apporter les modifications nécessaires pour adapter ce langage à la partie la plus nouvelle du système de Giuseppe di Giugno, la machine 4C.
Le travail sur une version d' « Explosante fixe » de Pierre Boulez prévue pour Mai 1979, version pour flûte et synthétiseur digital, a contribué à hâter le développement d'un premier langage de contrôle de la machine 4C. Ce langage conçu par Curtis Abbott a été écrit par Abbott et James Lawson. Il comporte deux parties séparées : la première est un compilateur qui traduit des entrées exprimées en données selon une syntaxe spécifique ; la seconde est un programme exécutif (run-time system) chargé de traduire ces données en ordres de contrôle pour la machine 4C. Le compilateur est écrit en Pascal, le programme exécutif en assembleur pour un PDP11 de la DEC.
Ce langage diffère sensiblement du langage de Prévot décrit en détail ci-dessus. Tout d'abord, il a été conçu spécialement pour un PDP11 à mémoire à disque de grande capacité et à virgule flottante, alors que le système de contrôle de la machine 4B a été conçu pour un micro-ordinateur. De plus, il doit pouvoir permettre de traiter de façon analytique des enregistrements numériques.
La structure du programme exécutif dépend beaucoup de la structure physique de la machine 4C à cause du travail nécessaire pour aboutir à des définitions d'instruments. Une fois de plus, il est donc impossible de décrire en détail ce langage sans décrire la machine qu'il a à contrôler. Néanmoins, une description rapide peut en donner une idée.
Le compilateur et le programme exécutif peuvent être séparés et, en fait, le programme exécutif peut servir plusieurs compilateurs différents. Dans le programme exécutif des structures parallèles sont représentées par des « chaînes ». La chaîne est l'unité de base du système. On peut la visualiser comme une matrice en deux dimensions dont la première colonne est une liste d'informations sur le moment où commencer à exécuter la ligne correspondante, et dont les autres colonnes sont des listes d'éléments à traiter de la même façon (par exemple, une colonne d'informations sur les fréquences, une autre sur les amplitudes, etc.). Les lignes représentent des événements qui contiennent les éléments à exécuter simultanément.
Les départs temporels peuvent être soit des valeurs (époque de tel événement) soit l'instruction d'attendre une interruption en temps réel pour commencer à traiter l'événement. Les éléments de la chaîne sont soit des valeurs, soit des instructions pour chercher des valeurs en temps réel ou pour lire ces valeurs à partir d'un fichier, soit des instructions de commencer une nouvelle chaîne ou l'un ou l'autre d'une série d'ordres (charger ou décharger un instrument, enregistrer, rejouer etc.). La possibilité de charger ou de décharger des instruments (ou des tables d'onde de n'importe quelle longueur) donne une grande flexibilité dans l'utilisation des ressources de la machine 4C. On peut simuler des activités parallèles en utilisant un élément d'une chaîne comme instruction pour déclencher une autre chaîne. Un élément peut déclencher n'importe quelle chaîne y compris la sienne propre.
Le développement d'un système pour la synthèse par règles de la parole a nécessité un langage de contrôle dont aucun modèle ou analogue n'existait à l'IRCAM. Durant l'année écoulée, Jean-Luc Delâtre a développé un langage dont l'importance dépasse de beaucoup le simple contrôle d'un système de synthèse spécifique. Dans le système de synthèse développé par Xavier Rodet (voir ci-dessus), les composants élémentaires (en général la description de l'évolution des formants, mais aussi de bruit à spectre étendu) sont calculés simultanément et combinés pour produire un résultat acoustique complexe. Une bibliothèque de sous-programmes accessible par le langage peut servir à calculer les éléments ; des règles complexes dérivées de l'analyse de la parole naturelle déterminent lesquelles de ces sous-routines participeront au calcul d'un échantillon particulier pour chaque composant élémentaire. Le but du langage est de manier ces règles. Puisque le système de contrôle associé au langage ne peut prévoir au début d'une série de calculs si un certain élément sera constant au évoluera (une amplitude peut rester la même durant un certain temps, ou elle peut changer rapidement) ou même si un certain élément sera toujours utilisé ou pas (les sons voisés diffèrent par le nombre de formants qui les composent), le système de contrôle doit donc être capable de maîtriser des conditions et modes de calcul qui ne peuvent être prévus au début d'une succession complexe d'opérations.
Le signal acoustique est calculé échantillon par échantillon dans une boucle de calcul contenant les sous-programmes nécessaires à l'obtention de chaque échantillon. Pour parcourir cette boucle de la façon la plus efficace, des procédures de contrôle très élaborées sont nécessaires, car il doit être possible à tout moment au cours des calculs d'inclure de nouveaux sous-programmes dans la boucle, d'en enlever d'autres temporairement pour les mettre dans une file d'attente, de les associer au calcul de nouveaux éléments, etc. Ces procédures de contrôle font de ce qui était à l'origine un simple moyen de contrôle d'un système de synthèse spécifique un langage général pour la simulation des systèmes continus. Le langage développé par Jean-Luc Delâtre est décrit plus en détail dans « Le système de traitement de signaux digitaux JUNIOR » (publication IRCAM).
Du fait de cette généralité, tout d'abord requise pour satisfaire à des contraintes d'efficacité, le langage est d'un grand intérêt pour les musiciens, pour la raison suivante : les relations et structures au niveau le plus fin (l'échantillon) sont représentées précisément dans les mêmes termes que celles des niveaux médians (le phonème) ou globaux (la phrase). Donc le langage peut fonctionner en fait comme un outil de composition, permettant la formulation de relations précises tout en laissant une certaine liberté quant aux matériaux auxquels appliquer ces relations. En ce sens le langage diffère fondamentalement de langages tels que Music V, qui sont essentiellement des transcodifications d'un processus musical élaboré par des moyens différents. Bien qu'aucune « syntaxe » musicale ne soit proposée par le langage, il se prête à la formulation de syntaxes individuelles pour la composition.
Dans la seconde partie de son étude, Moorer a recherché comment simuler la réverbération en utilisant la réponse impulsionnelle d'une salle réelle ou imaginaire. Alors qu'il est toujours possible de simuler la réverbération d'une salle réelle par convolution de la réponse impulsionnelle de la salle avec un signal acoustique, ce procédé exige un temps de calcul disproportionné (six minutes pour une seule seconde de son dans l'étude de Moorer qui utilise des algorithmes très rapides). Moorer a tenté d'obtenir des temps de calcul plus raisonnables en utilisant une réponse impulsionnelle simplifiée. La poursuite du travail sur ce modèle, montrant pourquoi les délais de réinjection seront toujours inadéquats, est importante pour tous ceux qui utllisent la réverbération artificielle. Dans la troisième partie de son étude, Moorer a proposé de synthétiser la réverbération par convolution de la réponse impulsionnelle avec le son non-réverbéré, pendant les premières 40 à 80 ms. de la réverbération. Des délais de réinjection sont utilisés pour le reste du temps. Ce modèle donne de bons résultats et représente une économie de temps de calcul de l'ordre de 10 à 20 par rapport à la convolution classique.
Dans une autre étude, « The Digital Coding of High-Quality Musical Sound » (présentée au nom de l'IRCAM à la 62e Convention de l'Audio Engineering Society à Bruxelles en mars 1979, rapport IRCAM), Moorer a étudié deux techniques différentes de réduction de données pour le codage numérique du son : codage de durée minimum ou codage de Huffman, ainsi qu'un système de codage a incréments flottants que Moorer a développé.
Le premier système permet, en général, une réduction du nombre de bits nécessaires à la représentation du son (de cinq à sept pour un registre dynamique de 16 bits), mais il comporte également deux inconvénients importants : dans certaines circonstances, il aboutit, en fait, à augmenter les données jusqu'à un facteur deux, et le stockage non-régulier en mémoire peut causer des problèmes. Le codage à virgule flottante de Moorer réussit à réduire un signal de 22 bits à 13 bits (mantisse de neuf bits, exposant de quatre) sans qu'une perte de qualité soit vraiment perceptible. Cela signifie une réduction de trois bits par rapport à l'échantillonnage par nombres entiers de 16 bits utilisé généralement pour un traitement de son de haute qualité.
Bara a également développé un ensemble de programmes qui permettent d'utiliser l'imprimante électrostatique de l'IRCAM, aussi bien pour du texte que pour des graphiques réalisés par ordinateur. Outre les deux programmes pour imprimer, texte et graphiques, il existe un programme qui permet à chaque utilisateur de dessiner ses propres fontes, ainsi que des programmes pour préparer les documents, les index, etc. A l'heure actuelle, l'imprimante électrostatique ne peut pas être utilisée à partir de tous les terminaux contrairement à l'imprimante alphanumérique. Le développement d'un logiciel pour rendre cette utilisation possible est à l'étude pour l'avenir. Ce rapport a été entièrement préparé et produit par les systèmes de correction et d'impression disponibles sur le système PDP10.
Parmi les tâches plus techniques de développement du système, il importe de mentionner la construction d'une mémoire d'échange de 512.000 mots qui permettra d'abréger le temps d'attente lorsque plusieurs tâches sont transférées dans les deux sens du disque à la mémoire centrale ainsi que la conception d'un système d'accès direct mémoire à 24 canaux qui soulagera considérablement la charge sur le système lorsque l'on enregistre ou joue des sons. Ces deux appareils seront construits en 1979.
Le développement de Music V s'est poursuivi en 1978, grâce aux efforts de Jean-Louis Richer. L'adjonction la plus importante a été une série de générateurs de base qui permettent le traitement de son réel. Les fichiers de son déjà enregistrés sur l'ordinateur peuvent être utilisés comme n'importe quelle autre entrée dans un générateur de base. De plus, il est possible de lire ces sons à des vitesses variables à partir de n'importe quel endroit du fichier en avant ou en arrière avec la précision d'un échantillon. Jean-Louis Richer a rédigé une documentation complète de la version de Music V utilisée à l'IRCAM.
Un projet important pendant 1978 a été la construction d'une nouvelle flûte, projet qui était sous la supervision de Robert Dick. Le but principal de ce projet est de permettre à la flûte de mieux répondre aux exigences de la musique contemporaine, en ce qui concerne particulièrement les sons multiphoniques. Sur la flûte comme elle existe actuellement, on ne peut transposer les sons multiphoniques que d'une façon limitée : à cause de la connexion mécanique des nombreuses clés dans le système de doigtés de Boehm on peut seulement reproduire la position requise de trous ouverts et fermés jusqu'à ce que l'on atteigne une clé qui ferme plus d'un trou à la fois. La flûte que l'on a construite déconnecte les clés mécaniquement connectées et répartit les trous autour du corps de l'instrument, de façon à réduire au minimum l'effort des mains pour les atteindre. Les dix doigts peuvent jouer librement. Certains « doigtés de compromis », dans le système de Boehm (en particulier mi6 - fa#6 - sol#6) sont corrigés.
Un premier prototype d'une flûte conçue pour jouer des multiphoniques a été proposé et calculé par Arthur Benade, membre du Conseil Scientifique de l'IRCAM, en juin 1978. Dans ce prototype, l'interprète peut contrôler individuellement chaque trou. Tous les trous sont petits (sur la flûte Boehm, il y a à la fois de grands trous et de petits trous [trous demi-fermés] ; les grands trous donnent un son plein, mais permettent difficilement à la colonne d'air de vibrer suivant plus d'un mode à la fois ; c'est ce comportement multimode qui provoque les sons multiphoniques). Dans la conception actuelle, on a décidé de garder le principe du contrôle indépendant de chaque trou, mais de choisir une taille plus large pour éviter de sacrifier la plénitude du son.
Cette flûte a été réalisée avec la coopération d'Alfred Cooper, de Londres, qui a calculé la position des trous et résolu de nombreux problèmes mécaniques.
Dans le Département Électro-Acoustique, Maurice Rozenberg a construit un filtre analogique
passe-bande programmable numériquement. Un micro-ordinateur contrôle les paramètres de ce
filtre. Les fonctions de variation ainsi que le programme du micro-ordinateur sont contrôlés par un
ordinateur DEC PDP11. Le filtre permet d'atteindre une atténuation de 50 dB par octave. (Voir
rapport IRCAM 16/78, « A Digitally Programmable Filter »).
Annexe 1
Voici une brève description des possibilités informatiques actuelles de l'IRCAM, du point de vue
de l'informaticien. La liste du matériel essaie d'être complète, mais on ne donne que quelques
indications sur le logiciel. Le lecteur intéressé par les motivations pourra se réferer à [2].
Ressources Informatiques à
l'IRCAM
par Raymond Bara
Dans tout ce qui suit nous utiliserons le sigle « DEC » pour désigner le constructeur « Digital Equipment Corporation ».
Les terminaux actuellement connectés au système sont :
Ces terminaux sont répartis dans tout le bâtiment de l'IRCAM. En outre, la console opérateur est également un DEC LA36.
Il s'agit d'un mini-ordinateur DEC PDP 11/40 avec une mémoire de 32K mots de 16 bits, 2 unités de disque DEC RKO5 de 1,2 M mots de 16 bits chacune et un écran graphique avec pointeur optique. En outre est connectée une imprimante électrostatique Versatec 1200 (résolution : 200 points par pouce).
Il s'agit d'un mini-ordinateur DEC PDP 11/34 avec une mémoire de 64K mots de 16 bits, 2 unités de disque DEC RKO6 de 6,6 M mots de 16 bits chacune, un écran graphique avec pointeur optique, un canal de conversion de 16 bits numérique-analogique et analogique-numérique réalisé à l'IRCAM par Didier Roncin, un convertisseur analogique numérique (Tim Orr), une matrice d'interconnexion (Peter Eastty), un système 4C (construit à l'IRCAM par Giuseppe di Giugno et modifié par Peter Eastty et Didier Roncin) et un système de commande gestuelle qui comprend un clavier d'orgue et 48 potentiomètres gérés par un microprocesseur 6800 Motorola, rendant tous leurs paramètres disponibles à l'ordinateur sous forme numérique.
Il s'agit d'un mini-ordinateur DEC PDP 11/55 avec une mémoire de 64K mots de 16 bits, 2 unités de disque DEC RKO6 de 6,6 M mots de 16 bits chacune et un écran graphique avec pointeur optique et système 4C (Giuseppe di Giugno). Le développement du système de traitement de sons par Giuseppe di Giugno est fait sur le PDP11/55.
Il s'agit d'un mini-ordinateur DEC PDP 11/03 avec une mémoire de 32K mots de 16 bits, 2 unités de disquette DEC RX0I de 118,6 K mots de 16 bits chacune, une console de visualisation DEC VT50 et un système 4B (Giuseppe di Giugno) (cf [3]).
A l'exception du PDP11/55, ces mini-systèmes sont connectés au PDP10 sur le DC10 et peuvent être utilisés comme terminal de celui-ci aussi bien qu'indépendamment. Sauf le 11/03, ils peuvent servir également de terminal graphique du PDP10.
Celui du PDP10 est une version intermédiaire entre le système DEC TOPS10 et le moniteur du Laboratoire d'Intelligence Artificielle de l'Université Stanford (cf [1]), dont une caractéristique importante est d'utiliser les Datamedias au mieux de leurs possibilités, et de permettre ainsi l'utilisation de l'éditeur de texte E de Stanford. Quoique nombre de programmes d'utilité viennent de Stanford, certains sont du constructeur (la compatibilité avec DEC est en effet maintenue). Le Département Ordinateur de l'IRCAM entretient ce système en y introduisant les modifications nécessaires à la spécificité des applications musicales et à son utilisation par des personnes peu formées à l'informatique.
Parmi les langages disponibles sur le PDP10, outre les assembleurs, signalons :
L'équipement de base de ces-studios consiste en :
Le système de distribution de ces studios permet une interconnexion aisée des équipements audio, l'interface avec les équipements numériques ainsi qu'avec les autres studios de la maison. Un studio du Département Ordinateur dispose également de deux filtres graphiques à 1/3 octave. Le studio du Département Pédagogie dispose également des équipements auxiliaires suivants :
La fonction principale de cette régie est de permettre la réalisation de sonorisations ou de concerts avec support électroacoustique, ce qui n'exclut pas l'utilisation en régie d'enregistrement pour des productions simples ne nécessitant pas plus de 12 microphones.
L'équipement de ce studio consiste en :
L'équipement de cette régie consiste en :
Dans le Studio Instruments et Voix, on aura dans un avenir proche la possibilité de connecter 16 enceintes aux sorties de la console pour effectuer des études acoustiques ou psychoacoustiques.
Les principaux matériels portables sont :
____________________________
Server © IRCAM-CGP, 1996-2008 - file updated on .
____________________________
Serveur © IRCAM-CGP, 1996-2008 - document mis à jour le .