Duże zbiory danych gwarantują sprawne decyzje
Duże zbiory danych, czyli big data, to gorący temat w niemal wszystkich sektorach – od biznesu, przez naukę i ekonomię, aż po finanse. „Dzięki dużym zbiorom danych, analitycy finansowi mogą błyskawicznie przetwarzać dane dotyczące setek akcji, sprzedawcy detaliczni mogą przechowywać informacje na temat zakupów wszystkich klientów, a ekonomiści mogą w czasie rzeczywistym prognozować stan gospodarki”, twierdzi Ines Wilms, badaczka Uniwersytetu w Maastricht. Jak zauważa Wilms, wykorzystywanie w tych celach dużych zbiorów danych wymaga jednak odpowiednich narzędzi. „Choć zagadnienie dużych zbiorów danych jest znane od lat, dopiero teraz zaczynamy rozumieć, jak ważne jest posiadanie odpowiedniego zestawu narzędzi statystycznych do pozyskiwania potrzebnych nam informacji”, dodaje badaczka. Dzięki wsparciu finansowanego ze środków Unii Europejskiej projektu BigTime, Wilms ma możliwość pracowania nad rozwojem zestawu narzędzi statystycznych potrzebnych ekonomistom do podejmowania pewniejszych decyzji na podstawie dużych zbiorów danych.
Lepszy sposób rozwiązywania problemów związanych z dużymi zbiorami danych
Dzięki połączeniu metod statystycznych, uczenia maszynowego i ekonometrii, w ramach projektu powstały metody uczenia statystycznego i odpowiednie oprogramowanie, które umożliwia rozwiązywanie problemów związanych z dużymi zbiorami danych. Opracowany zestaw narzędzi ma przede wszystkim pomóc badaczom, analitykom danych i studentom w dokonywaniu wiarygodnych szacunków i opracowywaniu dokładnych prognoz, kwantyfikacji niepewności i wyciąganiu wniosków na temat związków przyczynowo-skutkowych. „Dzięki tym metodom użytkownicy mogą na przykład zrozumieć, w jaki sposób olbrzymi zbiór danych banku centralnego może być wykorzystany do prognozowania produktu krajowego brutto danego państwa, zarówno w tym, jak i w nadchodzącym kwartale”, wyjaśnia Wilms. „Model ten może również pomóc w określeniu efektów polityki banku centralnego rozłożonych w czasie”. Oprogramowanie nazwane bigtime, które zostało udostępnione publicznie użytkownikom, zostało zaprojektowane w sposób spełniający potrzeby wielu grup użytkowników. „Eksperci mogą uzyskać dostęp do naszego kodu źródłowego – udostępniliśmy go na otwartej licencji. Opracowaliśmy także przyjazną dla użytkowników dokumentację, która pozwala łatwiej zrozumieć poszczególne zagadnienia”, zauważa Wilms. „Nowi użytkownicy mogą skorzystać z aplikacji internetowych, które pozwolą im się zapoznać krok po kroku z podstawowymi koncepcjami dotyczącymi szeregów czasowych i prostymi przypadkami użycia”.
Prawdziwy hit
Jak twierdzi Wilms, rozwiązanie bigtime już teraz jest prawdziwym hitem. „Nasze oprogramowanie zostało pobrane przeszło 25 000 razy”, twierdzi badaczka. „Mam nadzieję, że liczba użytkowników będzie nieustannie rosła wraz z kolejnymi badaczami, analitykami biznesowymi i studentami odkrywającymi tajniki dużych zbiorów danych”. Pomimo niezaprzeczalnego sukcesu, Wilms nie spoczywa na laurach. „Projekt zrealizowany w ramach działania »Maria Skłodowska-Curie« pokazał mi, że jest jeszcze wiele do zrobienia i odkrycia w ekscytującym obszarze analizy przyczynowej wielowymiarowych szeregów czasowych”, dodaje badaczka. Obecnie Wilms koncentruje się na wykorzystaniu metod uczenia statystycznego w analizie przyczynowej, a także na rozwoju narzędzi programowych. „Mam nadzieję, że z czasem uda nam się dotrzeć z naszym oprogramowaniem do szerszego grona odbiorców spoza środowisk akademickich – do przedstawicieli biznesu i partnerów przemysłowych”, podsumowuje Wilms. „W tym celu opracowaliśmy kurs na temat analizy szeregów czasowych i prognozowania, opublikowany na platformie BlueCourses, gdzie prezentujemy niektóre z metod opracowanych w ramach projektu BigTime”.
Słowa kluczowe
BigTime, duże zbiory danych, narzędzia statystyczne, ekonomiści, finansowe, ekonomia, uczenie maszynowe, oprogramowanie, otwartoźródłowe, szereg czasowy