Skip to main content
European Commission logo print header

Article Category

Noticias
Contenido archivado el 2023-03-06

Article available in the following languages:

Ya está preparado el «Grid mundial de computación» del Gran Colisionador de Hadrones del CERN

Está previsto que el Gran Colisionador de Hadrones (LCH), el acelerador de partículas más potente del mundo, genere unos 15 millones de gigabytes de información al año a partir del momento en que se ponga en marcha a finales de este año. El «Grid mundial de computación del LHC...

Está previsto que el Gran Colisionador de Hadrones (LCH), el acelerador de partículas más potente del mundo, genere unos 15 millones de gigabytes de información al año a partir del momento en que se ponga en marcha a finales de este año. El «Grid mundial de computación del LHC» (Worldwide LHC Computing Grid, WLCG), cuya tarea consiste en procesar toda esta información y ponerla a disposición de los físicos de todo el planeta, ha permanecido en funcionamiento durante dos semanas sin interrupción. Este experimento fue la primera prueba de producción en abarcar todo el ciclo de tratamiento de datos, desde la recopilación hasta su análisis. El LHC, situado en la Organización Europea para la Investigación Nuclear (CERN, Suiza), es un anillo de imanes superconductores de 27 kilómetros de longitud provisto de estructuras aceleradoras que se encargan de impulsar la energía de las partículas que lo recorren. Dentro, dos haces de partículas viajan a una velocidad cercana a la de la luz con una elevada carga energética antes de chocar entre sí. El propósito del colisionador es permitir la observación de partículas fundamentales, lo cual ayudará a la comunidad científica a dar respuesta a una serie de cuestiones no aclaradas de la física de partículas. En el LHC se realizan seis experimentos internacionales de primer nivel, como el proyecto a gran escala ATLAS («Aparato Toroidal del LHC»). El detector ATLAS se empleará para investigar una serie de cuestiones importantes para la física, como la existencia del bosón de Higgs (partícula hipotética que explicaría el mecanismo por el que las partículas adquieren masa) y otras dimensiones y partículas que podrían componer la materia oscura. Los investigadores al cargo de los experimentos y del análisis de la ingente cantidad de información generada por el detector han optado por la computación grid, la cual aprovecha los recursos de miles de ordenadores distintos, para asegurar el acceso a la información. El WLCG conecta entre sí más de 140 centros de computación de 34 países para construir y mantener la infraestructura de almacenaje y análisis de datos necesaria para los físicos que estudian la alta energía y que utilizarán el LHC. El control de las herramientas para la obtención, almacenado, procesado, simulación y visualización de información se hará a través del WLCG. Sólo el experimento ATLAS conllevará la ejecución de cerca de un millón de análisis, que generarán un tráfico de seis gigabytes por segundo durante periodos prolongados. La excepcional capacidad del grid es especialmente importante, puesto que se calcula que el WLCG puede alcanzar la cifra de varios miles de usuarios simultáneos. Los datos procedentes de los experimentos del LHC se almacenarán en cinta magnética en el CERN antes de distribuirse a once centros de computación de gran capacidad (denominados «Tier 1») en Canadá, Francia, Alemania, Italia, Países Bajos, Escandinavia, España, Taiwán, Reino Unido y Estados Unidos. Desde allí, los datos se pondrán a disposición de más de 120 centros «Tier 2», donde se podrán realizar análisis específicos. A partir de ese instante, un investigador dado podrá acceder a la información mediante un grupo o cluster de ordenadores locales o incluso desde su propio ordenador personal. «Cuatro experimentos sobre el LHC [...] han demostrado su capacidad para gestionar sus velocidades de datos nominales al mismo tiempo», afirmó Sergio Bertolucci, director de investigación y computación del CERN. «Por primera vez, se han puesto en práctica de forma simultánea todos los aspectos computacionales de los experimentos: simulación, procesado de datos y análisis. Así los responsables pueden confiar en que serán capaces de analizar los primeros datos del LHC a finales de este año.» Gonzalo Merino, responsable del centro Tier 1 de Barcelona, afirmó: «Ha sido un ejercicio de gran utilidad, puesto que muchos flujos de trabajo de los experimentos se han sometido a prueba de forma simultánea a una escala sin precedentes, muy por encima de los valores nominales de recopilación de datos del LHC. El Tier 1 en el PIC ha demostrado ser un servicio estable y seguro al más alto nivel, ya que ha intercambiado 80 terabytes al día con otros centros del WLCG y ha procesado información a más de 2 gigabytes por segundo. Por ello estamos convencidos de que los centros WLCG españoles están listos para procesar los datos.» David Foster, director de la actividad «Red Óptica Privada del LHC», añadió: «Con las nuevas capacidades, en el rango de los 40 a los 100 Gbps, deberíamos estar en condiciones de responder a las necesidades de distribución de datos necesarias para los experimentos del LHC.» «Este es otro paso importante hacia la demostración de que las infraestructuras compartidas pueden ser utilizadas por varias comunidades científicas de alto rendimiento de forma simultánea», concluyó Ruth Pordes, directora ejecutiva del consorcio «Open Science Grid». El experimento WLCG también incluyó una prueba a gran escala para simular las posibilidades de análisis de los usuarios finales. Además, se examinaron las infraestructuras basadas en comunidades para verificar que son capaces de formar adecuadamente a la comunidad científica para que sea autosuficiente.

Países

Suiza

Artículos conexos