European Commission logo
italiano italiano
CORDIS - Risultati della ricerca dell’UE
CORDIS

Voice driven interaction in XR spaces

Descrizione del progetto

Esperienze di realtà estesa che combinano la visione e il suono

Le tecnologie di realtà estesa (XR, eXtended Reality) sono a un passo dal dominare la scena dell’interazione uomo-computer attraverso il superamento dei tradizionali approcci. Tra gli altri campi che registrano uno sviluppo analogo figurano l’elaborazione del linguaggio naturale e la visione artificiale, principalmente a causa dell’emergere di metodi basati sui dati nell’ambito dell’apprendimento automatico e dell’intelligenza artificiale. L’ambizione del progetto VOXreality consiste nel fondere questi campi paralleli per progettare e sviluppare modelli di IA che integreranno il linguaggio come mezzo di interazione principale assieme alla comprensione visiva. L’attenzione è rivolta alla produzione di modelli di realtà estesa pre-addestrati che intrappolano la conoscenza spaziale e semantica dei sistemi XR e di elaborazione del linguaggio naturale. Ciò potrebbe dare il via a una nuova era di applicazioni costruite sulla comprensione olistica degli obiettivi degli utenti, lontane da dispositivi e controllori.

Obiettivo

VOXReality is an ambitious project whose goal will be to facilitate and exploit the convergence of two important technologies, natural language processing (NLP) and computer vision (CV). Both technologies are experiencing a huge performance increase due to the emergence of data-driven methods, specifically machine learning (ML) and artificial intelligence (AI). On the one hand, CV/ML are driving the extended reality (XR) revolution beyond what was possible up to now, and, on the other, speech-based interfaces and text-based content understanding are revolutionising human-machine and human-human interaction. VOXReality will employ an economical approach to combine these two. VOXReality will pursue the integration of language- and vision-based AI models with either unidirectional or bidirectional exchanges between the two modalities. Vision systems drive both AR and VR, while language understanding adds a natural way for humans to interact with the back-ends of XR systems or create multimodal XR experiences combining vision and sound. The results of the project will be twofold: 1) a set of pretrained next-generation XR models combining, in various levels and ways, language and vision AI and enabling richer, more natural immersive experiences that are expected to boost XR adoption, and 2) a set of applications using these models to demonstrate innovations in various sectors. The above technologies will be validated through three use cases: 1) Personal Assistants that are an emerging type of digital technology that seeks to support humans in their daily tasks, with their core functionalities related to human-to-machine interaction; 2) Virtual Conferences that are completely hosted and run online, typically using a virtual conferencing platform that sets up a shared virtual environment, allowing their attendees to view or participate from anywhere in the world; 3) Theaters where VOXReality will combine language translation, audiovisual user associations and AR VFX triggered by predetermined speech.

Coordinatore

MAGGIOLI SPA
Contribution nette de l'UE
€ 1 483 750,00
Indirizzo
VIA DEL CARPINO 8
47822 Santarcangelo Di Romagna
Italia

Mostra sulla mappa

Regione
Nord-Est Emilia-Romagna Rimini
Tipo di attività
Private for-profit entities (excluding Higher or Secondary Education Establishments)
Collegamenti
Costo totale
€ 1 483 750,00

Partecipanti (9)