Ircam-Centre Pompidou

Recherche

  • Recherche simple
  • Recherche avancée

    Panier électronique

    Votre panier ne contient aucune notice

    Connexion à la base

  • Identification
    (Identifiez-vous pour accéder aux fonctions de mise à jour. Utilisez votre login-password de courrier électronique)

    Entrepôt OAI-PMH

  • Soumettre une requête

    Consulter la notice détailléeConsulter la notice détaillée
    Version complète en ligneVersion complète en ligne
    Version complète en ligne accessible uniquement depuis l'IrcamVersion complète en ligne accessible uniquement depuis l'Ircam
    Ajouter la notice au panierAjouter la notice au panier
    Retirer la notice du panierRetirer la notice du panier

  • English version
    (full translation not yet available)
  • Liste complète des articles

  • Consultation des notices


    Vue détaillée Vue Refer Vue Labintel Vue BibTeX  

    Catégorie de document Contribution à un colloque ou à un congrès
    Titre A Hierarchical Approach for the Design of Gesture-to-Sound Mappings
    Auteur principal Jules Françoise
    Co-auteurs Baptiste Caramiaux, Frédéric Bevilacqua
    Colloque / congrès Sound and Music Computing. Copenhague : Juillet 2012
    Comité de lecture Oui
    Année 2012
    Statut éditorial Non publié
    Résumé

    We propose a hierarchical approach for the design of gesture-to-sound mappings, with the goal to take into account multilevel time structures in both gesture and sound processes. This allows for the integration of temporal mapping strategies, complementing mapping systems based on instantaneous relationships between gesture and sound synthesis parameters. Specifically, we propose the implementation of Hierarchical Hidden Markov Models to model gesture input, with a flexible structure that can be authored by the user. Moreover, some parameters can be adjusted through a learning phase. We show some examples of gesture segmentations based on this approach, considering several phases such as preparation, attack, sustain, release. Finally we describe an application, developed in Max/MSP, illustrating the use of accelerometer-based sensors to control phase vocoder synthesis techniques based on this approach.

    Mots-clés gesture / sound / hidden markov models / mapping / machine learning / gesture recognition / music / music interfaces / interaction
    Equipe Interactions musicales temps-réel
    Cote Francoise12a
    Adresse de la version en ligne http://architexte.ircam.fr/textes/Francoise12a/index.pdf

    © Ircam - Centre Pompidou 2005.