Recherche
Recherche simple
Recherche avancée
Panier électronique
Votre panier ne contient aucune notice
Connexion à la base
Identification
(Identifiez-vous pour accéder aux fonctions de mise à jour. Utilisez votre login-password de courrier électronique)
Entrepôt OAI-PMH
Soumettre une requête
| Consulter la notice détaillée |
| Version complète en ligne |
| Version complète en ligne accessible uniquement depuis l'Ircam |
| Ajouter la notice au panier |
| Retirer la notice du panier |
English version
(full translation not yet available)
Liste complète des articles
|
Consultation des notices
%0 Conference Proceedings
%A Wanderley, Marcelo M.
%A Schnell, Norbert
%A Rovan, Joseph Butch
%T ESCHER - Modeling and Performing Composed Instruments in real-time
%D 1998
%B IEEE Int. Conference on Systems Man and Cybernetics
%C San Diego - CA
%F Wanderley98c
%K sound synthesis
%K human-computer interaction
%K real-time
%K instrument modelling
%K additive synthesis
%X This article presents ESCHER, a sound synthesis environment
based on Ircam's real-time audio environment jMax. ESCHER is
a modular system providing synthesis-independent prototyping
of gesturally-controlled instruments by means of parameter
interpolation. The system divides into two components:
gestural controller and synthesis engine. Mapping between
components takes place on two independent levels, coupled
by an intermediate abstract parameter layer. This separation
allows a flexible choice of controllers and/or sound
synthesis methods.
%1 7
%2 3
|
|