Ircam-Centre Pompidou

Recherche

  • Recherche simple
  • Recherche avancée

    Panier électronique

    Votre panier ne contient aucune notice

    Connexion à la base

  • Identification
    (Identifiez-vous pour accéder aux fonctions de mise à jour. Utilisez votre login-password de courrier électronique)

    Entrepôt OAI-PMH

  • Soumettre une requête

    Consulter la notice détailléeConsulter la notice détaillée
    Version complète en ligneVersion complète en ligne
    Version complète en ligne accessible uniquement depuis l'IrcamVersion complète en ligne accessible uniquement depuis l'Ircam
    Ajouter la notice au panierAjouter la notice au panier
    Retirer la notice du panierRetirer la notice du panier

  • English version
    (full translation not yet available)
  • Liste complète des articles

  • Consultation des notices


    Vue détaillée Vue Refer Vue Labintel Vue BibTeX  

    Catégorie de document Contribution à un colloque ou à un congrès
    Titre Descriptor-based Sound Texture Sampling
    Auteur principal Diemo Schwarz
    Co-auteur Norbert Schnell
    Colloque / congrès Sound and Music Computing (SMC). Barcelona : Juillet 2010
    Comité de lecture Oui
    Collation p.510-515
    Année 2010
    Statut éditorial Publié
    Résumé

    Existing methods for sound texture synthesis are often concerned with the extension of a given recording, while keeping its overall properties and avoiding artefacts. However, they generally lack controllability of the resulting sound texture. After a review and classification of existing approaches, we propose two methods of statistical modeling of the audio descriptors of texture recordings using histograms and Gaussian mixture models. The models can be interpolated to steer the evolution of the sound texture between different target recordings (e.g. from light to heavy rain). Target descriptor values are stochastically drawn from the statistic models by inverse transform sampling to control corpus-based concatenative synthesis for the final sound generation, that can also be controlled interactively by navigation through the descriptor space. To better cover the target descriptor space, we expand the corpus by automatically generating variants of the source sounds with transformations applied, and storing only the resulting descriptors and the transformation parameters in the corpus.

    Mots-clés sound textures / statistic modeling / Gaussian mixture models / audio descriptors / corpus-based synthesis / concatenative synthesis / content-based retrieval / databases
    Equipes Interactions musicales temps-réel, Autre (hors R&D)
    Cote Schwarz10a
    Adresse de la version en ligne http://articles.ircam.fr/textes/Schwarz10a/index.pdf

    © Ircam - Centre Pompidou 2005.