Ircam-Centre Pompidou

Recherche

  • Recherche simple
  • Recherche avancée

    Panier électronique

    Votre panier ne contient aucune notice

    Connexion à la base

  • Identification
    (Identifiez-vous pour accéder aux fonctions de mise à jour. Utilisez votre login-password de courrier électronique)

    Entrepôt OAI-PMH

  • Soumettre une requête

    Consulter la notice détailléeConsulter la notice détaillée
    Version complète en ligneVersion complète en ligne
    Version complète en ligne accessible uniquement depuis l'IrcamVersion complète en ligne accessible uniquement depuis l'Ircam
    Ajouter la notice au panierAjouter la notice au panier
    Retirer la notice du panierRetirer la notice du panier

  • English version
    (full translation not yet available)
  • Liste complète des articles

  • Consultation des notices


    Vue détaillée Vue Refer Vue Labintel Vue BibTeX  

    Catégorie de document Article ou chapitre dans un livre
    Titre Interactive Sound Texture Synthesis Through Semi-Automatic User Annotations
    Auteur principal Diemo Schwarz
    Co-auteur Baptiste Caramiaux
    Paru dans Sound, Music, and Motion, Lecture Notes in Computer Science, Vol. 8905, Marseille, 2014, Springer International Publishing
    Collation p.372-392
    Année 2014
    Statut éditorial Publié
    Résumé

    We present a way to make environmental recordings controllable again by the use of continuous annotations of the high-level semantic parameter one wishes to control, e.g. wind strength or crowd excitation level. A partial annotation can be propagated to cover the entire recording via cross-modal analysis between gesture and sound by canonical time warping (CTW). The annotations serve as a descriptor for lookup in corpus-based concatenative synthesis in order to invert the sound/annotation relationship. The workflow has been evaluated by a preliminary subject test and results on canonical correlation analysis (CCA) show high consistency between annotations and a small set of audio descriptors being well correlated with them. An experiment of the propagation of annotations shows the superior performance of CTW over CCA with as little as 20 s of annotated material.

    Mots-clés sound textures / audio descriptors / corpus-based synthesis / canonical correlation analysis / canonical time warping
    Equipe Interactions musicales temps-réel
    Cote Schwarz14a
    Adresse de la version en ligne http://architexte.ircam.fr/textes/Schwarz14a/index.pdf

    © Ircam - Centre Pompidou 2005.