Description du projet
Apprendre aux voitures à conduire comme les humains
Des véhicules connectés aux voitures autonomes, les véhicules sans conducteur sont en passe de révolutionner le secteur automobile dans les années à venir. Les fabricants automobile traditionnels s’efforcent de mettre rapidement au point des véhicules entièrement autonomes pour répondre à la (future) demande. Les progrès des algorithmes de vision autonome constituent le fer de lance de cette transformation annoncée. Le projet VUAD, financé par l’UE, travaille au développement d’une méthode d’apprentissage profond pour le suivi d’objets multiples sur des données structurées en graphiques. Le projet élargira également ses horizons pour inclure la détection vidéo simultanée des objets et le suivi basé sur des indicateurs temporels, afin d’améliorer les performances en matière de détection et de suivi. En outre, VUAD proposera un modèle de mouvement en arrière-plan pour les parties statiques de la scène, de manière non supervisée. L’objectif est de combiner les algorithmes proposés au sein d’un seul module de compréhension vidéo.
Objectif
Autonomous vision aims to solve computer vision problems related to autonomous driving. Autonomous vision algorithms achieve impressive results on a single image for various tasks such as object detection and semantic segmentation, however, this success has not been fully extended to video sequences yet. In computer vision, it is commonly acknowledged that video understanding falls years behind single image. This is mainly due to two reasons: processing power required for reasoning across multiple frames and the difficulty of obtaining ground truth for every frame in a sequence, especially for pixel-level tasks such as motion estimation. Based on these observations, there are two likely directions to boost the performance of tasks related to video understanding in autonomous vision: unsupervised learning and object-level reasoning as opposed to pixel-level reasoning. Following these directions, we propose to tackle three relevant problems in video understanding. First, we propose a deep learning method for multi-object tracking on graph structured data. Second, we extend it to joint video object detection and tracking by exploiting temporal cues in order to improve both detection and tracking performance. Third, we propose to learn a background motion model for the static parts of the scene in an unsupervised manner. Our long-term goal is also to be able to learn detection and tracking in an unsupervised manner. Once we achieve these stepping stones, we plan to combine the proposed algorithms into a unified video understanding module and test its performance in comparison to static counterparts as well as the state-of-the-art algorithms in video understanding.
Champ scientifique (EuroSciVoc)
CORDIS classe les projets avec EuroSciVoc, une taxonomie multilingue des domaines scientifiques, grâce à un processus semi-automatique basé sur des techniques TLN.
CORDIS classe les projets avec EuroSciVoc, une taxonomie multilingue des domaines scientifiques, grâce à un processus semi-automatique basé sur des techniques TLN.
- sciences naturellesinformatique et science de l'informationintelligence artificielleapprentissage automatiqueapprentissage non supervisé
- sciences naturellesinformatique et science de l'informationintelligence artificiellevision par ordinateurdétection d’objets
- sciences naturellesinformatique et science de l'informationintelligence artificielleapprentissage automatiqueapprentissage profond
Vous devez vous identifier ou vous inscrire pour utiliser cette fonction
Programme(s)
Régime de financement
MSCA-IF-EF-ST - Standard EFCoordinateur
34450 Istanbul
Turquie