Opis projektu
Nowe metody statystyczne zmniejszą niepewność analizy dużych zbiorów danych
Dane wielkoskalowe są zazwyczaj nieuporządkowane – skala niedokładności danych zwiększa się wraz ze wzrostem objętości danych. Ponadto, jeśli dane są pozyskiwane w różnych warunkach lub jeśli są one niekompletne lub obarczone błędem, pojawia się ryzyko, że wysunięte na ich podstawie wnioski będą niewiarygodne. Badacze z finansowanego ze środków UE projektu RobustStats zamierzają opracować niezawodną metodologię i teorię statystyczną, które pozwolą rozwiązać wyzwania związane z big data. W kontekście uczenia transferowego, użyją oni odpowiednich metod do wykorzystania dystrybucji pomiędzy domenami źródłowymi i docelowymi. Ponadto przetestują mechanizmy brakujących danych i stworzą praktyczne narzędzia do rozwiązywania problemów brakujących i niejednorodnych danych w klasyfikacjach. Wdrożą również rozwiązania z zakresu perturbacji danych na potrzeby skutecznych metod wnioskowania w oparciu o dane wielkoskalowe.
Cel
Modern technology allows large-scale data to be collected in many new forms, and their underlying generating mechanisms can be extremely complex. In fact, an interesting (and perhaps initially surprising) feature of large-scale data is that it is often much harder to feel confident that one has identified a plausible statistical model. This is largely because there are so many forms of model violation and both visual and more formal statistical checks can become infeasible. It is therefore vital for trust in conclusions drawn from large studies that statisticians ensure that their methods are robust. The RobustStats proposal will introduce new statistical methodology and theory for a range of important contemporary Big Data challenges. In transfer learning, we wish to make inference about a target data population, but some (typically, most) of our training data come from a related but distinct source distribution. The central goal is to find appropriate ways to exploit the relationship between the source and target distributions. Missing and corrupted data play an ever more prominent role in large-scale data sets because the proportion of cases with no missing attributes is typically small. We will address key challenges of testing the form of the missingness mechanism, and handling heterogeneous missingness and corruptions in classification labels. The robustness of a statistical procedure is intimately linked to model misspecification. We will advocate for two approaches to studying model misspecification, one via the idea of regarding an estimator as a projection onto a model, and the other via oracle inequalities. Finally, we will introduce new methods for robust inference with large-scale data based on the idea of data perturbation. Such approaches are attractive ways of exploring a space of distributions in a model-free way, and we will show that aggregation of the results of carefully-selected perturbations can be highly effective.
Dziedzina nauki
Program(-y)
Temat(-y)
System finansowania
ERC-ADG - Advanced GrantInstytucja przyjmująca
CB2 1TN Cambridge
Zjednoczone Królestwo