Skip to main content
Aller à la page d’accueil de la Commission européenne (s’ouvre dans une nouvelle fenêtre)
français français
CORDIS - Résultats de la recherche de l’UE
CORDIS
CORDIS Web 30th anniversary CORDIS Web 30th anniversary

Neural OmniVideo: Fusing World Knowledge into Smart Video-Specific Models

Description du projet

De nouveaux modèles pour de meilleures représentations vidéo

La vision par ordinateur a fait des progrès considérables en ce qui concerne l’application de l’apprentissage profond (DL) aux images, mais les progrès de l’analyse vidéo ont été plus lents en raison de la complexité et de la diversité des données vidéo, qui requièrent des ensembles de données d’entraînement plus importants que les images. Les données vidéo brutes étant généralement de haute dimension, le traitement à l’échelle de volumes entiers de pixels vidéo est par conséquent coûteux. Bien que les modèles spécifiques aux vidéos possèdent des propriétés fondamentales, ils sont limités par les informations de bas niveau que contiennent les vidéos, ce qui a un impact sur leurs capacités, leur applicabilité et leur robustesse. Le projet OmniVideo, financé par le CER, se propose de développer des modèles neuronaux OmniVideo en intégrant deux approches permettant de capturer la dynamique des vidéos à l’aide de cadres basés sur le DL et de modèles externes. Cette intégration propose d’introduire des méthodologies d’analyse et de synthèse vidéo, pour des représentations vidéo fondamentalement innovantes et efficaces.

Objectif

The field of computer vision has made unprecedented progress in applying Deep Learning (DL) to images. Nevertheless, expanding this progress to videos is dramatically lagging behind, due to two key challenges: (i) video data is highly complex and diverse, requiring order of magnitude more training data than images, and (ii) raw video data is extremely high dimensional. These challenges make the processing of entire video pixel-volumes at scale prohibitively expensive and ineffective. Thus, applying DL at scale to video is restricted to short clips or aggressively sub-sampled videos.

On the other side of the spectrum, video-specific models—a single or a few neural networks trained on a single video—exhibit several key properties: (i) facilitate effective video representations (e.g. layers) that make video analysis and editing significantly more tractable, (ii) enable long-range temporal analysis by encoding the video through the network, and (iii) are not restricted to the distribution of training data. Nevertheless, the capabilities, applicability and robustness of such models are hampered by having access to only low-level information in the video

We propose to combine the power of these two approaches by the new concept of Neural OmniVideo Models: DL-based frameworks that effectively represent the dynamics of a given video, coupled with the vast knowledge learned by an ensemble of external models. We are aimed at pioneering novel methodologies for developing such models for video analysis and synthesis tasks. Our approach will have several important outcomes:
• Give rise to fundamentally novel effective video representations.
• Go beyond state-of-the-art in classical video analysis tasks that involve long-range temporal analysis.
• Enhance the perception of our dynamic world through new synthesis capabilities.
• Gain profound understanding of the internal representation learned by state-of-the-art large-scale models, and unveil new priors about our dynamic.

Champ scientifique (EuroSciVoc)

CORDIS classe les projets avec EuroSciVoc, une taxonomie multilingue des domaines scientifiques, grâce à un processus semi-automatique basé sur des techniques TLN. Voir: https://op.europa.eu/en/web/eu-vocabularies/euroscivoc.

Vous devez vous identifier ou vous inscrire pour utiliser cette fonction

Régime de financement

HORIZON-ERC - HORIZON ERC Grants

Institution d’accueil

WEIZMANN INSTITUTE OF SCIENCE
Contribution nette de l'UE
€ 1 500 000,00

Bénéficiaires (1)