CORDIS - Résultats de la recherche de l’UE
CORDIS

Robust statistical methodology and theory for large-scale data

Description du projet

Nouvelles méthodes statistiques pour réduire l’incertitude dans l’analyse des mégadonnées

Les données à grande échelle sont généralement désordonnées: la fraction des données inexactes augmente avec la croissance du volume des données. Il peut s’avérer difficile de tirer des conclusions fiables lorsque des données sont recueillies dans des conditions différentes, ou lorsque certaines données sont manquantes ou corrompues. Le projet RobustStats, financé par l’UE, a pour objectif de développer une méthodologie et une théorie statistiques robustes afin de relever les défis des mégadonnées. Dans le contexte de l’apprentissage par transfert, les chercheurs s’appuieront sur des méthodes adéquates pour exploiter les distributions entre les domaines source et cible. Ils testeront également les mécanismes des données manquantes et fourniront des outils pratiques permettant de gérer les données manquantes et hétérogènes dans les étiquettes de classification. Enfin, la perturbation des données sera introduite pour une inférence solide avec des données à grande échelle.

Objectif

Modern technology allows large-scale data to be collected in many new forms, and their underlying generating mechanisms can be extremely complex. In fact, an interesting (and perhaps initially surprising) feature of large-scale data is that it is often much harder to feel confident that one has identified a plausible statistical model. This is largely because there are so many forms of model violation and both visual and more formal statistical checks can become infeasible. It is therefore vital for trust in conclusions drawn from large studies that statisticians ensure that their methods are robust. The RobustStats proposal will introduce new statistical methodology and theory for a range of important contemporary Big Data challenges. In transfer learning, we wish to make inference about a target data population, but some (typically, most) of our training data come from a related but distinct source distribution. The central goal is to find appropriate ways to exploit the relationship between the source and target distributions. Missing and corrupted data play an ever more prominent role in large-scale data sets because the proportion of cases with no missing attributes is typically small. We will address key challenges of testing the form of the missingness mechanism, and handling heterogeneous missingness and corruptions in classification labels. The robustness of a statistical procedure is intimately linked to model misspecification. We will advocate for two approaches to studying model misspecification, one via the idea of regarding an estimator as a projection onto a model, and the other via oracle inequalities. Finally, we will introduce new methods for robust inference with large-scale data based on the idea of data perturbation. Such approaches are attractive ways of exploring a space of distributions in a model-free way, and we will show that aggregation of the results of carefully-selected perturbations can be highly effective.

Régime de financement

ERC-ADG - Advanced Grant

Institution d’accueil

THE CHANCELLOR MASTERS AND SCHOLARS OF THE UNIVERSITY OF CAMBRIDGE
Contribution nette de l'UE
€ 2 050 068,00
Adresse
TRINITY LANE THE OLD SCHOOLS
CB2 1TN Cambridge
Royaume-Uni

Voir sur la carte

Région
East of England East Anglia Cambridgeshire CC
Type d’activité
Higher or Secondary Education Establishments
Liens
Coût total
€ 2 050 068,00

Bénéficiaires (1)