Ircam-Centre Pompidou

Recherche

  • Recherche simple
  • Recherche avancée

    Panier électronique

    Votre panier ne contient aucune notice

    Connexion à la base

  • Identification
    (Identifiez-vous pour accéder aux fonctions de mise à jour. Utilisez votre login-password de courrier électronique)

    Entrepôt OAI-PMH

  • Soumettre une requête

    Consulter la notice détailléeConsulter la notice détaillée
    Version complète en ligneVersion complète en ligne
    Version complète en ligne accessible uniquement depuis l'IrcamVersion complète en ligne accessible uniquement depuis l'Ircam
    Ajouter la notice au panierAjouter la notice au panier
    Retirer la notice du panierRetirer la notice du panier

  • English version
    (full translation not yet available)
  • Liste complète des articles

  • Consultation des notices


    Vue détaillée Vue Refer Vue Labintel Vue BibTeX  

    Catégorie de document Thèse
    Titre Interaction musicale et geste sonore : modélisation temporelle de descripteurs audio
    Auteur principal Julien Bloit
    Université ou établissement Paris 6
    Directeur Xavier Rodet
    Année 2010
    Statut éditorial Non publié
    Résumé

    Ce travail de thèse traite de la modélisation de sons instrumentaux dans un contexte d'interaction musicale entre un interprète et une partie électronique. Lorsque cette interaction implique l'extraction d'informations symboliques, les modèles existants font le plus souvent l'hypothèse que le signal est structuré en notes, définies par leurs valeurs de hauteur, durée et intensité. Cependant, cette représentation ne permet pas de rendre compte de vocabulaires instrumentaux plus contemporains qui, à travers l'emploi de modes de jeu particuliers, explorent d'autres dimensions musicales, notamment timbrales et temporelles. Plutôt que d'entreprendre la modélisation exhaustive des sonorités instrumentales contemporaines, nous proposons de considérer qu'un vocabulaire de gestes sonores peut être représenté par une combinaison de profils caractéristiques sur plusieurs dimensions perceptives. Un geste sonore est alors modélisé par des trajectoires sur plusieurs flux de descripteurs audio qui approchent ces dimensions. Dans un cadre Bayésien, nous étudions une modélisation en plusieurs flux, capable de prendre en compte l'asynchronie entre plusieurs processus cachés, ainsi que la dépendance statistique entre descripteurs. Sur chaque flux, nous proposons ensuite de modéliser les trajectoires avec des modèles segmentaux dont la structure permet de mieux rendre compte des durées et des corrélations entre observations successives que les modèles dont les observations se limitent à l'échelle d'une trame temporelle. Nous examinons ensuite le lien entre topologie de modèle et décodage en temps réel, notamment en termes de compromis précision/latence. Les évaluations sont menées sur plusieurs bases de données synthétiques ainsi que sur une base de données de sons de violon, constituée au cours de nos travaux.

    Mots-clés interaction / musique / geste / modes de jeu instrumentaux / modèles de Markov cachés / modèles segmentaux / critères morphologiques / multiflux / temps réel.
    Equipes Analyse et synthèse sonores, Interactions musicales temps-réel
    Cote Bloit10b

    © Ircam - Centre Pompidou 2005.