Recherche
Recherche simple
Recherche avancée
Panier électronique
Votre panier ne contient aucune notice
Connexion à la base
Identification
(Identifiez-vous pour accéder aux fonctions de mise à jour. Utilisez votre login-password de courrier électronique)
Entrepôt OAI-PMH
Soumettre une requête
| Consulter la notice détaillée |
| Version complète en ligne |
| Version complète en ligne accessible uniquement depuis l'Ircam |
| Ajouter la notice au panier |
| Retirer la notice du panier |
English version
(full translation not yet available)
Liste complète des articles
|
Consultation des notices
%0 Conference Proceedings
%A Françoise, Jules
%A Schnell, Norbert
%A Bevilacqua, Frédéric
%T A Multimodal Probabilistic Model for Gesture-based Control of Sound Synthesis
%D 2013
%B Proceedings of the 21st ACM international conference on Multimedia (MM'13)
%C Barcelona
%F Francoise13b
%K gesture
%K hmm
%K music
%K music performance
%K sound synthesis
%X In this paper, we propose a multimodal approach to create the mapping between gesture and sound in interactive music systems. Specifically, we propose to use a multimodal HMM to conjointly model the gesture and sound parameters. Our approach is compatible with a learning method that allows users to define the gesture-sound relationships interactively. We describe an implementation of this method for the control of physical modeling sound synthesis. Our model is promising to capture expressive gesture variations while guaranteeing a consistent relationship between gesture and sound.
%1 6
%2 1
%U http://architexte.ircam.fr/textes/Francoise13b/
|
|