European Commission logo
polski polski
CORDIS - Wyniki badań wspieranych przez UE
CORDIS

Article Category

Wiadomości
Zawartość zarchiwizowana w dniu 2023-03-06

Article available in the following languages:

Światowa sieć komputerowa gotowa do obsługi danych z Wielkiego Zderzacza Hadronów w CERN

Oczekuje się, że Wielki Zderzacz Hadronów (LHC), najsilniejszy na świecie akcelerator cząstek, będzie generować około 15 milionów gigabajtów danych rocznie, po tym jak zacznie normalną pracę pod koniec tego roku. "Światowa sieć komputerowa LHC" (WLCG), która odgrywa kluczową r...

Oczekuje się, że Wielki Zderzacz Hadronów (LHC), najsilniejszy na świecie akcelerator cząstek, będzie generować około 15 milionów gigabajtów danych rocznie, po tym jak zacznie normalną pracę pod koniec tego roku. "Światowa sieć komputerowa LHC" (WLCG), która odgrywa kluczową rolę w obsłudze tych danych i udostępnianiu ich fizykom, pracowała już w sposób ciągły przez okres dwóch tygodni. Eksperyment stanowi pierwszą demonstrację w środowisku produkcyjnym obejmującą pełny cykl danych, od zgromadzenia do zanalizowania. LHC, znajdujący się w Europejskim Laboratorium Fizyki Cząstek Elementarnych (CERN) w Szwajcarii, to 27-kilometrowy pierścień superprzewodzących magnesów, wyposażony w struktury przyśpieszające, który jest w stanie znacznie zwiększyć energię cząsteczek w ruchu. Wewnątrz akceleratora dwie wiązki cząsteczek rozpędzane są przez potężną energię do prędkości bliskiej prędkości światła, po to by za chwilę zderzyć się ze sobą. Celem, dla którego zbudowano zderzacz jest umożliwienie obserwowania cząstek elementarnych, po to aby naukowcy mogli znaleźć odpowiedzi na ważne pytania z zakresu fizyki cząstek elementarnych, które pozostają dotąd bez odpowiedzi. LHC jest miejscem prowadzenia sześciu dużych eksperymentów międzynarodowych, w tym zaplanowanego na wielką skalę projektu ATLAS (Toroidalny aparat LHC). Detektor ATLAS będzie wykorzystywany do badania szeregu niewyjaśnionych dotąd zagadnień fizycznych, jak istnienie bozonu Higgsa (który uważa się za cząstkę stojącą za mechanizmem nabierania masy przez cząsteczki), oraz dodatkowych wymiarów i cząstek składających się na ciemną materię. Naukowcy kierujący eksperymentami i analizujący ogromne ilości informacji generowanych przez detektor, będą opierać się na technikach informatyki sieciowej, która pozwala korzystać z zasobów tysięcy komputerów w celu zapewnienia niezawodnego dostępu do danych. Sieć WLCG łączy ponad 140 centrów komputerowych w 34 krajach, tworząc i utrzymując infrastrukturę do przechowywania i analizowania danych dla fizyków zajmujących się problemami dużych energii i wykorzystujących LHC. Będzie ona obsługiwać gromadzenie i przetwarzanie danych oraz narzędzia do symulacji i wizualizacji. Tylko sam eksperyment ATLAS wymagać będzie niemal 1 miliona analiz przy ruchu sieciowym na poziomie 6 gigabitów na sekundę, utrzymującym się przez dłuższe okresy. Wyjątkowa wydajność sieci ma szczególne znaczenie, ponieważ oczekuje się, że z WLCG będą korzystać jednocześnie tysiące użytkowników. Eksperymentalne dane z LHC nagrywane są w CERN na taśmę, a następnie przekazywane do 11 dużych centrów komputerowych (zwanych "centrami poziomu 1") we Francji, Hiszpanii, Holandii, Kanadzie, Niemczech, Skandynawii, na Tajwanie, w USA, Wlk. Brytanii i Włoszech. Tam dane są udostępniane ponad 120 "centrom poziomu 2", gdzie można wykonywać konkretne analizy. Poszczególni naukowcy mogą wówczas uzyskać dostęp do informacji poprzez któryś z lokalnych klastrów komputerowych albo wręcz ze swojego własnego komputera. "W czterech eksperymentach LHC [...] wykazano, że można jednocześnie zarządzać danymi nominalnymi" - mówi Sergio Bertolucci, dyrektor ds. badań i informatyki w CERN. "Po raz pierwszy równocześnie korzystano z wszystkich aspektów obliczeń opisujących eksperymenty: symulacji, przetwarzania i analizy danych. Pozwala to wierzyć, iż będzie można skutecznie analizować pierwsze dane uzyskane z LHC pod koniec roku." Gonzalo Merino, kierownik centrum poziomu 1 w Barcelonie, stwierdził: "Było to bardzo wartościowe doświadczenie, ponieważ przetestowano równocześnie wiele ciągów pracy eksperymentalnej na bezprecedensową skalę, znacznie przewyższającą wartości nominalne poboru danych z LHC. Poziom 1 w PIC zapewnił bardzo stabilną i niezawodną obsługę na rekordowym poziomie: wymieniano niemal 80 terabajtów danych dziennie z innymi centrami w sieci WLCG, a tempo przetwarzania danych przekraczało 2 gigabajty na sekundę. Takie wyniki dają nam podstawy, by twierdzić, iż hiszpańskie centra WLCG są gotowe do przyjmowania danych." David Foster, szef Prywatnej Sieci Optycznej LHC, dodaje: "Nowe możliwości pojawiające się w zakresie 40 Gbps i 100 Gbps powinny pomóc nam w zaspokojeniu przewidywanych potrzeb związanych z dystrybucją danych pochodzących z eksperymentów LHC." "Jest to następny ważny dowód na to, że wspólne infrastruktury mogą być wykorzystywane równocześnie przez wiele społeczności naukowych, wymagających dużej przepustowości" - wnioskuje Ruth Pordes, dyrektor zarządzający konsorcjum Otwarta Sieć Naukowa. Eksperyment WLCG obejmował także wielkoskalowe testy scenariuszy analiz prowadzonych przez użytkowników końcowych. Ponadto sprawdzono infrastruktury wspierające społeczność naukową w celu upewnienia się, czy są one w stanie zapewnić jej adekwatne szkolenia, by utrzymać jej niezależność finansową.

Kraje

Szwajcaria

Powiązane artykuły