Skip to main content
European Commission logo
polski polski
CORDIS - Wyniki badań wspieranych przez UE
CORDIS
CORDIS Web 30th anniversary CORDIS Web 30th anniversary

SONICOM - Transforming auditory-based social interaction and communication in AR/VR

Opis projektu

Realistyczna symulacja dźwięku w rzeczywistości wirtualnej

Dźwięk towarzyszy człowiekowi przez całe jego życie. Ponieważ pomaga odbierać informacje o otoczeniu i oddziaływać na nie, dźwięk jest bardzo istotnym czynnikiem kształtującym postrzeganie świata. W przypadku rzeczywistości wirtualnej lub rozszerzonej (VR/AR) poprawna symulacja przestrzenna dźwięku ma ogromny wpływ na poziom immersji użytkownika. Użycie dźwięku w zastosowaniach VR/AR wiąże się jednak z wieloma trudnościami. Wykorzystując sztuczną inteligencję, zespół finansowanego ze środków UE projektu SONICOM zamierza osiągnąć kolejny kamień milowy w realistycznej symulacji dźwięku. Celem jest opracowanie nowej generacji technologii dźwięku 3D, dostarczenie specjalistycznych rozwiązań audio oraz znacząca poprawa interakcji użytkowników ze światem wirtualnym.

Cel

Immersive audio is our everyday experience of being able to hear and interact with sounds around us. Simulating spatially located sounds in virtual or augmented reality (VR/AR) must be done in a unique way for each individual and currently requires expensive and time-consuming individual measurements, making it commercially unfeasible. Furthermore, the impact of immersive audio beyond perceptual metrics such as presence and localisation is still an unexplored area of research, specifically when related with social interaction, entering the behavioural and cognitive realms. SONICOM will revolutionise the way we interact socially within AR/VR environments and applications by leveraging methods from Artificial Intelligence (AI) to design a new generation of immersive audio technologies and techniques, specifically looking at personalisation and customisation of the audio rendering. Using a data-driven approach, it will explore, map and model how the physical characteristics of spatialised auditory stimuli can influence observable behavioural, physiological, kinematic, and psychophysical reactions of listeners within social interaction scenarios. The developed techniques and models will be evaluated in an ecologically valid manner, exploiting AR/VR simulations as well as real-life scenarios, and developing appropriate hardware and software proofs-of-concept. Finally, in order to reinforce the idea of reproducible research and promoting future development and innovation in the area of auditory-based social interaction, the SONICOM Ecosystem will be created, which will include auditory data closely linked with model implementations and immersive audio rendering components.

Zaproszenie do składania wniosków

H2020-FETPROACT-2018-2020

Zobacz inne projekty w ramach tego zaproszenia

Szczegółowe działanie

H2020-FETPROACT-2020-2

Koordynator

IMPERIAL COLLEGE OF SCIENCE TECHNOLOGY AND MEDICINE
Wkład UE netto
€ 1 829 708,75
Adres
SOUTH KENSINGTON CAMPUS EXHIBITION ROAD
SW7 2AZ LONDON
Zjednoczone Królestwo

Zobacz na mapie

Region
London Inner London — West Westminster
Rodzaj działalności
Higher or Secondary Education Establishments
Linki
Koszt całkowity
€ 1 829 708,75

Uczestnicy (10)