European Commission logo
français français
CORDIS - Résultats de la recherche de l’UE
CORDIS

Article Category

Article à la une
Contenu archivé le 2024-04-22

Article available in the following languages:

En vedette - Les modèles climatiques mettent la superinformatique sur la passerelle

Des scientifiques finnois ont utilisé une infrastructure de superinformatique développée par des chercheurs financés par l'UE afin d'étudier la précision des modèles climatiques dans le cadre d'un effort continu visant à renforcer leur précision et leur pertinence.

Économie numérique icon Économie numérique

Les modèles climatiques sont importants pour préparer la société aux impacts potentiels du changement climatique, mais la science est très complexe et souffre encore de nombreuses incertitudes. D'après les prévisions actuelles, la température pourrait augmenter de 1,1 à 6,4°C durant la période 1995-2095. Il s'agit là d'une variation énorme. «Le facteur d'incertitude le plus important dans la modélisation du climat est la nébulosité changeante», explique Petri Räisänen de l'institut météorologique finlandais, chercheur dans le cadre du projet MillCli . «Si les nuages à bas niveau venaient à augmenter à l'avenir, davantage de radiation solaire serait reflétée dans l'espace, ce qui pourrait aggraver les effets du réchauffement planétaire. Cependant, si les nuages à bas niveau venaient à s'estomper, le réchauffement planétaire augmenterait», ajoute le Dr Räisänen. Le projet MillCli a utilisé des ressources de superinformatique fournies par le projet DEISA («Distributed European infrastructure for supercomputing applications») pour étudier deux facteurs d'incertitude dans les modèles climatiques: les nuages et leur interaction avec la radiation. DEISA est une ressource extrêmement importante pour des scientifiques comme le Dr Räisänen. Sur les cinq ans et les deux phases du projet, DEISA a assemblé les plus puissants superordinateurs d'Europe via un réseau, et a développé des outils pour aider les chercheurs à utiliser cette puissance informatique massive, indépendamment du lieu où ils sont basés. L'équipe a également fourni son aide et ses conseils afin de s'assurer que les chercheurs puissent bénéficier au maximum de l'équipement disponible. Ainsi, des scientifiques irlandais peuvent par exemple utiliser des superordinateurs allemands optimisés par des programmateurs hollandais et soutenus par des experts techniques espagnols, français ou italiens. Il s'agit d'une plateforme de superinformatique véritablement paneuropéenne. Une partie des travaux de DEISA a mené au développement de DECI («DEISA extreme computing initiative»), une initiative qui met des ressources de classe mondiale à la disposition de chercheurs européens travaillant sur des problèmes scientifiques coriaces. En effet, DECI a soutenu diverses initiatives de recherche sur le changement climatique partout en Europe (principalement en relation avec la modélisation et la simulation) et s'est révélé être de grande valeur pour les travaux MillCli. «Bien que nos calculs n'aient consommé que 12% du quota de CPU alloué à MillCli, ils auraient été trop importants pour une exploitation sur les ressources computationnelles disponibles à l'institut météorologique finlandais», explique le Dr Räisänen. MillCli nécessitait des ordinateurs extrêmement puissants pour comprendre les nuages et les radiations et la façon dont ils sont représentés par les modèles actuels. «Le problème le plus important dans ce cas est une résolution insuffisante», fait remarquer le Dr Räisänen. «L'atmosphère modèle consiste en des cellules en réseaux disposant d'une zone classique de 200 x 200 km et une hauteur de 0,5 à 1 km. De nombreux processus affectant la production et les propriétés de la formation de nuages se produisent sur une bien plus petite échelle.» Haute considération MillCli a utilisé le modèle GCM («General circulation model») d'ECHAM de l'atmosphère pour étudier le problème en question. ECHAM5 est la cinquième génération du modèle développée par l'Institut Max Planck de météorologie. Il s'agit d'un modèle hautement considéré dans les études climatiques et il s'agit de l'un des GCM utilisés par le Groupe d'experts intergouvernemental sur l'évolution du climat (GIEC) pour prévoir le taux de réchauffement planétaire de ce siècle. «Nous avons voulu étudier l'influence d'un traitement plus avancé pour la structure nuageuse à l'échelle des sous-réseaux (avec des fonctions inférieures à l'espacement du réseau de 200 km) sur le climat simulé par ECHAM5 et en particulier sa sensibilité pour un CO2 atmosphérique plus important.» L'équipe a étudié les trois variations d'ECHAM5. La première utilisait un schéma simple d'humidité relative (RH, de l'anglais Relative-humidity) pour établir la fraction de nuages dans chaque cellule du réseau. La seconde version utilisait un traitement plus sophistiqué de la nébulosité fondé sur un schéma nuageux plus innovant développé par Adrian Tompkins. Ce schéma Tompkins estime la fraction nuageuse et également la variabilité à l'échelle des sous-réseaux de l'eau des nuages fondée sur la fonction de distribution de la probabilité de la teneur en eau au sein de la cellule du réseau. Un troisième modèle contenait la fonction Tompkins qui remplaçait le schéma de radiation standard dans ECHAM5 avec un modèle plus avancé traitant directement la structure nuageuse à l'échelle des sous-réseaux. Les chercheurs ont testé chaque version de modèle avec une exploitation sur 100 ans, l'une pour une concentration de CO2 préindustriel de 286,2 parties par million en volume (ppmv) et l'autre pour une valeur élevée de 450 ppmv. Ils ont réalisé un grand nombre d'essais plus courts pour interpréter les résultats. Les calculs ont été menés sur un ordinateur SGI Altix 4700 au centre de recherche Leibniz-Rechenzentrum (LRZ) à Munich, en Allemagne. Les calculs de MillCli ont été réalisés à l'aide de 28 processeurs pour chaque test, et une année simulée prenait entre 6 et 7 heures de temps horloge. Plusieurs simulations ont été menées en parallèle. «Du point de vue de la simulation du climat actuel, les différences entre les trois versions des modèles étaient faibles. Lorsque l'on comparait les structures des champs nuageux simulés avec des données observationnelles dérivées de l'imagerie satellite, des erreurs systématiques similaires étaient observées dans différentes versions des modèles», explique le Dr Räisänen. Cette image a énormément changé après que les chercheurs aient réalisé leurs calculs et, avec les différentes versions des modèles, a montré des différences évidentes en termes de simulations des changements climatiques au fil du temps, malgré la performance similaire dans la simulation du climat actuel. «La première version, utilisée comme point de départ, indiquait que le réchauffement planétaire serait moins important que ce que prévoyaient les simulations faites par les deux autres versions. La troisième version montrait la réaction la plus forte à des niveaux de CO2 élevés et un réchauffement environ 50% plus fort que celui prévu par la première version», explique le Dr Räisänen. En réalité, le réchauffement planétaire moyen provoqué par une augmentation du CO2 de 286,2 ppmv à 450 ppmv était de 2,02 Kelvin (K) dans le premier modèle, de 2,73 Kelvin pour le deuxième et de 3,01 Kelvin pour le dernier. «Ce résultat s'explique par le fait que dans les deux versions basées sur le schéma nuageux de Tompkins, le réchauffement planétaire réduit la nébulosité de bas niveau. Ceci signifie que la radiation solaire reflétée dans l'espace est réduite, mais que la quantité de radiation thermique s'échappant de la Terre pour atteindre l'espace ne change pas beaucoup», fait remarquer le Dr Räisänen. «Ainsi, ceci génère un phénomène de retour positif qui renforce le réchauffement planétaire. Mais on ne sait actuellement pas ce qui provoque la réduction de la nébulosité de bas niveau.» D'après le Dr Räisänen, les résultats viennent confirmer la conclusion selon laquelle les modèles peuvent encore générer des différences notables dans la force du changement climatique au fil du temps, malgré que les simulations du climat actuel semblent être relativement semblables. Ainsi, il est difficile d'évaluer la fiabilité des prédictions sur le changement climatique en se basant essentiellement sur la façon dont ces modèles simulent le climat actuel. Il convient de mener des études plus poussées allant au-delà des simples moyennes de temps, suggère-t-il. D'après le Dr Räisänen, l'une des questions générales n'ayant toujours pas de réponse appropriée concerne les caractéristiques des simulations qui sont critiques pour la simulation du futur changement climatique. Certaines incertitudes persistent quant au niveau de réchauffement planétaire, mais les travaux de recherche de MillCli ont montré que la réduction de la nébulosité à bas niveau aura un impact important sur la température et le niveau de changement climatique. DEISA2 était financé à hauteur de 10,24 millions d'euros (sur un budget total de 18,65 millions d'euros) au titre du septième programme-cadre de recherche de l'UE (7e PC), sous-programme «e-Science grid infrastructures». Liens utiles: - «Distributed European infrastructure for supercomputing applications» - Archives des données du projet DEISA2 sur CORDIS - Programmes/projets sur les e-infrastructures - projet MillCli Articles connexes: - Relier les superordinateurs pour simuler le soleil, le climat et le corps humain - Les superordinateurs s'attaquent au VIH - En vedette - Des superordinateurs pour calmer les eaux agitées - Supercomputing gets its own superhero - The grid: a new way of doing science - Les chercheurs européens spécialisés en fusion nucléaire accèdent à des ressources de calcul intensif