Ircam-Centre Pompidou

Recherche

  • Recherche simple
  • Recherche avancée

    Panier électronique

    Votre panier ne contient aucune notice

    Connexion à la base

  • Identification
    (Identifiez-vous pour accéder aux fonctions de mise à jour. Utilisez votre login-password de courrier électronique)

    Entrepôt OAI-PMH

  • Soumettre une requête

    Consulter la notice détailléeConsulter la notice détaillée
    Version complète en ligneVersion complète en ligne
    Version complète en ligne accessible uniquement depuis l'IrcamVersion complète en ligne accessible uniquement depuis l'Ircam
    Ajouter la notice au panierAjouter la notice au panier
    Retirer la notice du panierRetirer la notice du panier

  • English version
    (full translation not yet available)
  • Liste complète des articles

  • Consultation des notices


    Vue détaillée Vue Refer Vue Labintel Vue BibTeX  

    Catégorie de document Article paru dans une revue
    Titre Spatial audition in a static virtual environment : the role of auditory-visual interaction
    Auteur principal Khoa-Van Nguyen
    Co-auteurs Clara Suied, Isabelle Viaud-Delmon, Olivier Warusfel
    Paru dans Journal of Virtual Reality and Broadcasting 2009
    Comité de lecture Oui
    Copyright Journal of Virtual Reality and Broadcasting
    Année 2009
    Statut éditorial Accepté - publication en cours
    Résumé

    The integration of the auditory modality in virtual re- ality (VR) is known to promote the sensations of im- mersion and presence. However it is also known from psychophysics studies that auditory-visual interaction obey to complex rules and that multisensory conflicts may disrupt the adhesion of the participant to the pre- sented virtual scene. It is thus important to measure the accuracy of the auditory spatial cues reproduced by the auditory display and their consistency with the spatial visual cues. This study evaluates auditory lo- calisation performances under various unimodal and auditory-visual bimodal conditions in a VR setup us- ing a stereoscopic display and binaural reproduction over headphones in static conditions. The auditory lo- calisation performances observed in the present study are in line with those reported in real conditions, sug- gesting that VR gives rise to consistent auditory and visual spatial cues. These results validate the use of VR for future psychophysics experiments with audi- tory and visual stimuli. They also emphasize the im- portance of a spatially accurate auditory and visual rendering for VR setups.

    Mots-clés Auditory-visual interaction / auditory localisation / virtual reality
    Equipe Espaces acoustiques et cognitifs
    Cote Nguyen09a

    © Ircam - Centre Pompidou 2005.