European Commission logo
français français
CORDIS - Résultats de la recherche de l’UE
CORDIS

Robust, Explainable Deep Networks in Computer Vision

Description du projet

Aider les ordinateurs à mieux voir les choses

La création des réseaux neuronaux convolutifs (CNN, pour convolutional neural networks – une classe d’algorithmes d’apprentissage profond) a révolutionné la vision par ordinateur en permettant à ces derniers de «voir» les choses et d’y réagir. Les CNN n’ont toutefois pas résolu tous les problèmes. Par exemple, il faut encore de grandes quantités de données labellisées pour leur entraînement, et cela n’est pas possible dans tous les domaines d’application potentiels. Par ailleurs, en vision par ordinateur, la majorité des réseaux profonds s’avèrent insuffisants en termes d’explicabilité. Le projet RED, financé par l’UE, s’efforcera de faire progresser la robustesse et l’explicabilité des réseaux profonds en vision par ordinateur. Il se penchera sur les conceptions de réseaux structurés, les méthodes probabilistes et les modèles hybrides générateurs/discriminants. Il fera également progresser les recherches portant sur la manière d’évaluer la robustesse et les aspects de l’explicabilité au moyen d’ensembles de données et de mesures spécifiques, en tenant compte des défis liés à l’analyse des scènes en 3D.

Objectif

"Deep learning approaches, mostly in the form of convolutional neural networks (CNNs), have taken the field of computer vision by storm. While the progress in recent years has been astounding, it would be dangerous to believe that important problems in computer vision are close to being solved. Many canonical deep networks for vision tasks ranging from image understanding to 3D reconstruction or motion estimation perform incredibly well ""on dataset"", i.e.~in the very setting in which they have been trained. The generalization to novel, related scenarios is still lacking, however. Moreover, large amounts of labeled data are required for training, which are not available in all potential application areas. In addition, the majority of deep networks in computer vision show deficiencies in terms of explainability. That is, the role of network components is often opaque and most deep networks in vision do not output reliable quantifications of the uncertainty of the prediction, limiting the comprehension by users. In this project, we aim to significantly advance deep networks in computer vision toward improved robustness and explainability. To that end, we will investigate structured network architectures, probabilistic methods, and hybrid generative/discriminative models, all with the goal of increasing robustness and gaining explainability. This is accompanied by research on how to assess robustness and aspects of explainability via appropriate datasets and metrics. While we aim to develop a toolbox that is as independent of specific tasks as possible, the work program is grounded in concrete vision problems to monitor progress. We specifically consider the challenges of 3D scene analysis from images and video, including tasks such as panoptic segmentation, 3D reconstruction, and motion estimation. We expect the project to have significant impact in applications of computer vision where robustness is key, data is limited, and user trust is paramount."

Régime de financement

ERC-COG - Consolidator Grant

Institution d’accueil

TECHNISCHE UNIVERSITAT DARMSTADT
Contribution nette de l'UE
€ 1 999 814,00
Adresse
KAROLINENPLATZ 5
64289 Darmstadt
Allemagne

Voir sur la carte

Région
Hessen Darmstadt Darmstadt, Kreisfreie Stadt
Type d’activité
Higher or Secondary Education Establishments
Liens
Coût total
€ 1 999 814,00

Bénéficiaires (1)