Description du projet
Transformer les expériences virtuelles grâce à l’audio immersif
Le son fait partie intégrante de l’expérience humaine. Considéré comme un des moyens les plus importants de ressentir et d’interagir avec notre environnement, le son joue un rôle majeur dans notre perception du monde. En réalité virtuelle ou augmentée (RV/RA), la simulation d’un son spatialement correct est d’une importance vitale pour offrir une expérience virtuelle immersive. Cependant, la RV/RA acoustique présente de nombreux défis. En utilisant la puissance de l’intelligence artificielle, le projet SONICOM, financé par l’UE, veut franchir la prochaine étape de la simulation audio immersive. L’objectif est de concevoir la prochaine génération de technologies audio 3D, de fournir des solutions audio personnalisées et d’améliorer considérablement la façon dont nous interagissons avec le monde virtuel.
Objectif
Immersive audio is our everyday experience of being able to hear and interact with sounds around us. Simulating spatially located sounds in virtual or augmented reality (VR/AR) must be done in a unique way for each individual and currently requires expensive and time-consuming individual measurements, making it commercially unfeasible. Furthermore, the impact of immersive audio beyond perceptual metrics such as presence and localisation is still an unexplored area of research, specifically when related with social interaction, entering the behavioural and cognitive realms. SONICOM will revolutionise the way we interact socially within AR/VR environments and applications by leveraging methods from Artificial Intelligence (AI) to design a new generation of immersive audio technologies and techniques, specifically looking at personalisation and customisation of the audio rendering. Using a data-driven approach, it will explore, map and model how the physical characteristics of spatialised auditory stimuli can influence observable behavioural, physiological, kinematic, and psychophysical reactions of listeners within social interaction scenarios. The developed techniques and models will be evaluated in an ecologically valid manner, exploiting AR/VR simulations as well as real-life scenarios, and developing appropriate hardware and software proofs-of-concept. Finally, in order to reinforce the idea of reproducible research and promoting future development and innovation in the area of auditory-based social interaction, the SONICOM Ecosystem will be created, which will include auditory data closely linked with model implementations and immersive audio rendering components.
Champ scientifique (EuroSciVoc)
CORDIS classe les projets avec EuroSciVoc, une taxonomie multilingue des domaines scientifiques, grâce à un processus semi-automatique basé sur des techniques TLN. Voir: https://op.europa.eu/en/web/eu-vocabularies/euroscivoc.
CORDIS classe les projets avec EuroSciVoc, une taxonomie multilingue des domaines scientifiques, grâce à un processus semi-automatique basé sur des techniques TLN. Voir: https://op.europa.eu/en/web/eu-vocabularies/euroscivoc.
- sciences naturellesinformatique et science de l'informationlogiciel
- sciences naturellessciences biologiquesécologieécosystème
Vous devez vous identifier ou vous inscrire pour utiliser cette fonction
Nous sommes désolés... Une erreur inattendue s’est produite.
Vous devez être authentifié. Votre session a peut-être expiré.
Merci pour votre retour d'information. Vous recevrez bientôt un courriel confirmant la soumission. Si vous avez choisi d'être informé de l'état de la déclaration, vous serez également contacté lorsque celui-ci évoluera.
Mots‑clés
Programme(s)
Appel à propositions
(s’ouvre dans une nouvelle fenêtre) H2020-FETPROACT-2018-2020
Voir d’autres projets de cet appelSous appel
H2020-FETPROACT-2020-2
Régime de financement
RIA -Coordinateur
SW7 2AZ LONDON
Royaume-Uni