Ircam-Centre Pompidou

Recherche

  • Recherche simple
  • Recherche avancée

    Panier électronique

    Votre panier ne contient aucune notice

    Connexion à la base

  • Identification
    (Identifiez-vous pour accéder aux fonctions de mise à jour. Utilisez votre login-password de courrier électronique)

    Entrepôt OAI-PMH

  • Soumettre une requête

    Consulter la notice détailléeConsulter la notice détaillée
    Version complète en ligneVersion complète en ligne
    Version complète en ligne accessible uniquement depuis l'IrcamVersion complète en ligne accessible uniquement depuis l'Ircam
    Ajouter la notice au panierAjouter la notice au panier
    Retirer la notice du panierRetirer la notice du panier

  • English version
    (full translation not yet available)
  • Liste complète des articles

  • Consultation des notices


    Vue détaillée Vue Refer Vue Labintel Vue BibTeX  

    Catégorie de document Contribution à un colloque ou à un congrès
    Titre Investigating the effects of spatially disparate visual stimuli on auditory localization in VR environments
    Auteur principal Khoa-Van Nguyen
    Co-auteurs Clara Suied, Isabelle Viaud-Delmon, Olivier Warusfel
    Colloque / congrès Journal of the Acoustical Society of America. Paris : Juillet 2008
    Comité de lecture Non
    Volume 123 (5)
    Collation p.3568-3568
    Année 2008
    Statut éditorial Publié
    Résumé

    Investigating the time and spatial constraints under which visual and auditory stimuli are perceived as a unique percept or as spatially coincident has been a topic of numerous researches in neuroscience. However, these findings have been derived up to now in extremely simplified stimulation context consisting in the combination of elementary auditory and visual stimuli usually displayed in dark and anechoic conditions. The present experiment is conducted in a VR environment using a stereoscopic passive screen and binaural audio rendering. Auditory stimuli are displayed on headphones using individualized head-related transfer functions and visual stimuli are integrated in a visual background in order to convey visual perspective. The experiment investigates the effect of a spatially disparate visual stimulus on the auditory localization judgments (crossmodal bias), as well as the relation between the magnitude of the crossmodal bias and the perception of a unified bi-modal stimulus. The present study will indicate whether previous findings (Hairston et al., Journal of Cognitive Neuroscience, 2003) still hold in more complex audio-visual contexts such as those offered by VR environments.

    Equipe Espaces acoustiques et cognitifs
    Cote Nguyen08a

    © Ircam - Centre Pompidou 2005.