European Commission logo
italiano italiano
CORDIS - Risultati della ricerca dell’UE
CORDIS

SONICOM - Transforming auditory-based social interaction and communication in AR/VR

Descrizione del progetto

Trasformare le esperienze virtuali attraverso un audio immersivo

Il suono è una componente essenziale dell’esperienza umana. Tra i più importanti modi di avvertire e interagire con il nostro ambiente, il suono svolge un ruolo principale nel modellare la percezione del mondo. All’interno della realtà virtuale o aumentata, la simulazione di un audio corretto a livello spaziale è di fondamentale importanza per fornire un’esperienza virtuale immersiva. Tuttavia, la realtà virtuale o aumentata acustica pone molte sfide. Attraverso il potere dell’intelligenza artificiale, il progetto SONICOM, finanziato dall’UE, si propone di fornire il prossimo traguardo nella simulazione audio immersiva. L’obiettivo consiste nel progettare la prossima generazione di tecnologie audio tridimensionali, fornire soluzioni audio personalizzate e migliorare significativamente il modo in cui interagiamo con il mondo virtuale.

Obiettivo

Immersive audio is our everyday experience of being able to hear and interact with sounds around us. Simulating spatially located sounds in virtual or augmented reality (VR/AR) must be done in a unique way for each individual and currently requires expensive and time-consuming individual measurements, making it commercially unfeasible. Furthermore, the impact of immersive audio beyond perceptual metrics such as presence and localisation is still an unexplored area of research, specifically when related with social interaction, entering the behavioural and cognitive realms. SONICOM will revolutionise the way we interact socially within AR/VR environments and applications by leveraging methods from Artificial Intelligence (AI) to design a new generation of immersive audio technologies and techniques, specifically looking at personalisation and customisation of the audio rendering. Using a data-driven approach, it will explore, map and model how the physical characteristics of spatialised auditory stimuli can influence observable behavioural, physiological, kinematic, and psychophysical reactions of listeners within social interaction scenarios. The developed techniques and models will be evaluated in an ecologically valid manner, exploiting AR/VR simulations as well as real-life scenarios, and developing appropriate hardware and software proofs-of-concept. Finally, in order to reinforce the idea of reproducible research and promoting future development and innovation in the area of auditory-based social interaction, the SONICOM Ecosystem will be created, which will include auditory data closely linked with model implementations and immersive audio rendering components.

Invito a presentare proposte

H2020-FETPROACT-2018-2020

Vedi altri progetti per questo bando

Bando secondario

H2020-FETPROACT-2020-2

Meccanismo di finanziamento

RIA - Research and Innovation action

Coordinatore

IMPERIAL COLLEGE OF SCIENCE TECHNOLOGY AND MEDICINE
Contribution nette de l'UE
€ 1 829 708,75
Indirizzo
SOUTH KENSINGTON CAMPUS EXHIBITION ROAD
SW7 2AZ LONDON
Regno Unito

Mostra sulla mappa

Regione
London Inner London — West Westminster
Tipo di attività
Higher or Secondary Education Establishments
Collegamenti
Costo totale
€ 1 829 708,75

Partecipanti (10)