Évolution du climat : peut-on se fier aux modèles ?

- enquête du Journal du CNRS n°174, mai 2004

Monday, 3 May 2004

Représentation des grilles verticales et horizontales du modèle d'atmosphère (LMDz). Les couleurs représentent les températures simulées au sol et dans l'atmosphère ; les flèches, l'orientation des vents. © L. Fairhead. LMD. CNRS. C'est l'effervescence actuellement dans les laboratoires en climatologie. En région parisienne et à Toulouse, les chercheurs et les informaticiens de l'Institut Pierre-Simon Laplace (IPSL(1)) et du Centre national de recherches météorologiques(2) peaufinent leurs modèles, vérifient leurs équations avant de mobiliser d'impressionnantes puissances de calcul pour une projection dans le futur. Leur mission : proposer le profil climatique de la planète à l'horizon 2100. Des résultats qui sont attendus par le Groupement intergouvernemental sur l'évaluation du climat en 2005 (Giec)(3).

Malgré leur enthousiasme visible, les chercheurs sont inquiets. La canicule d'août 2003 a été une vague de chaleur sans précédent en France depuis le début de l'ère industrielle. Par ailleurs, la concentration en dioxyde de carbone (CO2) atmosphérique, puissant gaz à effet de serre, a augmenté de 25 % en un siècle. Elle dépasse très largement aujourd'hui des seuils qui n'ont certainement jamais été atteints depuis des centaines de milliers d'années(4). Et la courbe est loin de s'infléchir. De récents chiffres publiés(5) indiquent en effet que 18,7 milliards de tonnes de CO2 industriel ont encore été émises en 2003, contre 17,1 en 2002. La concentration en gaz carbonique dans l'atmosphère est ainsi passée de 280 ppm(6) en 1850, au début de l'ère industrielle, à 370 pm en 2003. Conséquences prévues : un réchauffement climatique. Mais de quelle ampleur ?

Inquiets, les chercheurs sont aussi circonspects. Depuis qu'ils savent traduire en équations mathématiques puis en langage informatique les lois physiques du climat(7) pour simuler rien moins que la Terre, avec son atmosphère, ses océans et continents, ses cycles biogéochimiques et ses banquises, les climatologues se heurtent à des pans d'incertitudes. Sur les mécanismes climatiques et leurs interactions, sur les données d'observation, sur le climat du passé, sur la variabilité climatique, sur la fiabilité des modèles, sur les scénarios économiques pour l'avenir de la planète, et finalement sur les premières simulations du climat à l'horizon 2100 : "Ces simulations prévoient toutes un réchauffement de notre planète", admet Jean Jouzel, directeur de recherche au CEA, directeur de l'IPSL et expert du Giec. "Mais l'augmentation de température envisagée fluctue entre 1,4 et près de 6°C selon les simulations et les scénarios. Une fourchette qui reste importante". Malgré ses incertitudes(8), la modélisation reste fondamentale pour détecter le changement climatique que l'on pressent actuellement(9), et en identifier les causes. C'est d'autant plus vrai que depuis une dizaine d'années, la simulation du climat a fait d'énormes progrès. Elle le doit aussi bien à la diversification et à l'amélioration des modèles, aux progrès de l'informatique, qu'à une meilleure connaissance des mécanismes naturels du climat et des lois physiques qui les animent.

Mise à l'eau d'une bouée fixe dans le Golfe de Guinée (océan Atlantique) pour mesurer la température et la salinité de l'eau ainsi que les échanges entre eau et air. © J. Servain. IRD. C'est d'ailleurs l'une des problématiques capitales du pôle de modélisation de l'IPSL que dirige Pascale Braconnot, chercheuse CEA au Laboratoire des sciences du climat et de l'environnement (LSCE/IPSL) : "Contrairement à la météorologie, notre modèle a pour objectif de simuler et prévoir le climat sur le long terme, explique-t-elle. C'est pourquoi aux côtés de l'atmosphère, il prend en compte les composantes lentes du climat, comme l'océan, la végétation, les surfaces continentales et la glace de mer. Elles ont des constantes de temps différentes : l'atmosphère varie très vite et ne mémorise pas les traces d'une perturbation. L'océan, lui, a plusieurs constantes : la circulation de surface est de l'ordre de la saison, tandis que l'océan profond peut emprisonner des perturbations durant plusieurs centaines d'années". Et si un modèle de circulation atmosphérique, seul, suffit à produire des données météorologiques fiables au moins 48 heures à l'avance, pour étudier le climat ce n'est pas satisfaisant. C'est pourquoi l'IPSL utilise aujourd'hui un outil numérique associant un modèle d'atmosphère (LMDz) et un modèle d'océan (OPA), lui-même couplé à un modèle de glace de mer. L'avantage d'un modèle couplé est qu'il est capable de prendre en compte en toute liberté les paramètres de chaque système et les rétroactions d'un système sur un autre. Son inconvénient : le couplage, "s'il est mal réglé", va amplifier les défauts de chaque modèle et le climat qui est simulé risque alors de dériver. Mais les progrès réalisés dans le couplage, notamment par le Centre européen de recherche et de formation avancés en calcul scientifique (Cerfacs(10)) que dirige Jean-Claude André, limitent les dérives. Grâce à Oasis, le coupleur que développe l'équipe "Modélisation du climat et de son changement global", la communication s'opère entre les modèles et les échanges de données sont standardisés(11). Résultat : bien mis au point, le modèle couplé océan-atmosphère reproduit plus correctement qu'un modèle "forcé"(12) les interactions, par exemple le transfert d'énergie qui s'effectue de l'équateur vers le pôle, grâce aux courants océaniques et aux mouvements atmosphériques.

Températures de surface des océans simulées avec OPA à 0,5° de longitude de résolution horizontale et 300 niveaux verticaux. Simulation réalisée en 48 heures sur Earth Simulator. © S. Masson À l'IPSL, on est allé encore plus loin dans le couplage. Les chercheurs ont réussi depuis peu à y associer un modèle de surface continentale (Orchidée), un modèle de chimie atmosphérique (Inca) et un modèle du cycle du carbone. "Dans cet outil", explique Pascale Braconnot, "chaque modèle associé à une composante du climat calcule les processus internes à chacune d'elles et les interactions avec les autres modèles. Grâce cette multiplicité, nous essayons ainsi de faire interagir des paramètres souvent négligés dans les autres modèles".

Néanmoins, pour faire des simulations sur près de trois cents ans, de 1850 à 2100 comme le demande le Giec, la vingtaine de modèles dits "de circulation générale" (MCG) qui tournent à travers le monde se limitent encore à la double architecture océan-atmosphère. Pourtant au regard du rapport 2001 du Giec, leurs résultats diffèrent très sensiblement. Certains modèles sont-ils moins fiables que d'autres ? Lesquels ? Et comment vérifier cette fiabilité ?

"Tous les modèles aujourd'hui ont leurs qualités et leurs défauts", estime Frédéric Hourdin, chercheur CNRS au Laboratoire de météorologie dynamique (LMD/IPSL). C'est pourquoi le Giec préfère continuer à les utiliser tous même s'ils conduisent à des résultats différents pour donner un large état de la planète. Et tant que les modèles continueront de porter leurs propres incertitudes, les chercheurs préfèreront encore privilégier leur diversité. "D'où vient cette différence entre les modèles ? Un modèle global est une alchimie de différents paramètres codés, continue le chercheur. Et comme il est encore impossible de faire interagir dans un seul modèle toutes les composantes physiques du climat, les modélisateurs doivent faire des choix entre les divers paramètres. Ainsi, les modèles actuels sont encore très loin de représenter tous les processus qui rentrent en jeu dans le climat".

Mais y arrivera-t-on un jour ? Les chercheurs en doutent. "Plus un modèle se complexifie, plus il est difficile de le fiabiliser, et plus la possibilité qu'il fasse des erreurs augmente", admet Frédéric Hourdin. Peut-être faudrait-il les simplifier et limiter le nombre de paramètres ? Mais comment prendre en compte alors des micro-phénomènes souvent déterminants, comme les nuages ou les tourbillons océaniques ?

Justement, Gurvan Madec, chercheur CNRS au Laboratoire d'océanographie dynamique et de climatologie (Lodyc/IPSL) qui développe le modèle OPA sur la circulation océanique, pense que la solution passe en partie par l'augmentation de la résolution des modèles. Aujourd'hui, le modèle numérique d'océan est découpé en "boîtes" de deux cents kilomètres de côté et de dix mètres de hauteur.

Or certains phénomènes déterminants se produisent à trop petite échelle pour être capturés par le maillage actuel. C'est le cas pour les nuages dans l'atmosphère ou pour les transferts d'énergie induits par les tourbillons dans l'océan. "Il faudrait créer un filet au maillage bien plus étroit pour capter ces phénomènes", explique le chercheur. Et son équipe vient d'adapter le modèle d'océan à une résolution de cinquante kilomètres et d'un mètre de hauteur. "Ceci exige déjà une puissance de calcul considérable. Mais avec le super-calculateur vectoriel de l'Idris du CNRS, nous sommes aujourd'hui dix fois moins puissants que les Anglais et les Allemands, et cent fois moins que les Japonais", déplore le chercheur. "Et pour résoudre toute la dynamique des océans, il faudrait parvenir à simuler à l'échelle de la dizaine de kilomètres. Seul Earth Simulator, calculateur japonais, a le potentiel pour le faire dans le monde".

Simuler, c'est donc calculer au plus juste et au plus vite. "Mais le choix de la résolution et de la complexité du modèle résulte d'un compromis entre le réalisme recherché et le coût informatique, en temps et en puissance de calcul", estime Pascale Braconnot.

Le supercalculateur de l'Idris-CNRS. © CNRS. Idris. Précision, rapidité et fiabilité sont ainsi les leitmotiv qui qualifient le mieux la mise au point des modèles. Mais comment valider une simulation du climat futur quand les chercheurs ne disposent d'aucun moyen de contrôle ? Ce sont les données d'observations et paléo-climatologiques qui rentrent ici en jeu. Elles servent non seulement à comparer les modélisations avec les observations, mais aussi à comprendre la variabilité des composantes climatiques. "Le problème, c'est que nous manquons terriblement de données", insiste Gurvan Madec. "Pour l'océan par exemple, il faudrait pouvoir tabler sur des séries de données historiques longues de plusieurs dizaines d'années et recueillies sur toute la surface du globe pour mesurer la variabilité de certains phénomènes".

C'est pourquoi depuis dix ans, des efforts importants sont accomplis pour organiser des campagnes d'observation, que ce soit par satellite, par des bouées ou par des relevés de terrain. Les chercheurs en déduisent un état moyen et statistique du climat et de sa variabilité bâti sur la totalité des relevés historiques disponibles. C'est à partir de la simulation de ce climat, sensée reproduire le plus fidèlement possible le profil du climat actuel, qu'ils cherchent à mesurer la sensibilité du système climatique par rapport à une perturbation qui lui est imposée. Une perturbation dont les causes ne seraient pas naturelles, mais induites par les activités humaines et plus précisément par l'augmentation artificielle des gaz à effet de serre. Comment procèdent-ils alors ? Tout d'abord, ils simulent un climat "non perturbé par l'homme", pour vérifier s'il est cohérent. Dans ce cas, le modèle est opérationnel. Celui-ci commence alors par reproduire le climat récent, depuis 1950, ou parfois même depuis le début de l'ère industrielle en 1850, pour voir si tout concorde avec les données historiques dont disposent les modélisateurs. Ensuite, une projection dans le futur est effectuée selon un scénario établi qui dicte par exemple un taux "fictif" de concentration en CO2 dans l'atmosphère pour le siècle prochain. À la fin de la simulation qui peut nécessiter des calculs de plusieurs mois sur les supercalculateurs, les résultats sont comparés avec la simulation du climat "non perturbé".

C'est à partir de scénarios économistes que sont déterminées les perturbations à inclure dans un exercice de simulation. Proposés par le Giec, ils sont divisés en quatre grandes familles selon des critères de développement économique et de politique environnementale. Ils intègrent tous des projections démographiques, des taux d'industrialisation et de surface agricole, mais ne tiennent pas compte des résultats des accords internationaux sur la réduction des émissions de gaz à effet de serre. Pour Serge Planton, ingénieur au Centre national de recherche météorologique (CNRM) à Toulouse(13), "ces scénarios ne peuvent pas être considérés comme des prévisions. Ils restent entachés de nombreuses incertitudes pour ce qui concerne plus particulièrement les projections démographiques. L'objectif est ici de décrire une palette suffisamment large de scénarios socio-économiques possibles".

Les exercices de simulation du climat, tels que les réalise le CNRM, donnent néanmoins des indications et des tendances sur le climat futur à un horizon précis, en l'occurrence les trente dernières années de ce siècle.

Fabrice Imperiali

Note(s)

  1. Fédération de recherche du CNRS qui regroupe six laboratoires en sciences de l'environnement sous la tutelle de huit organismes de recherche.
  2. Météo France/Unité de recherche associée CNRS (Groupe d'étude de l'atmosphère météorologique).
  3. Plus connu sous son nom anglais, the Intergovernmental Panel on Climate Change (IPCC) a été créé en 1988 par l'Organisation météorologique mondiale (WMO) et par le Programme "Environnement" des Nations unies (Unep), reconnaissant ainsi le problème du changement climatique global.
  4. Les données du passé montrent que jamais au cours des 400 000 dernières années, la teneur en gaz carbonique n'a dépassé 300 ppm, et celle en méthane 0,8 ppm.
  5. D'après les estimations d'une agence de recherche scientifique australienne (CSIR) et les données de l'Observatoire de Mauna Loa (Hawaï).
  6. Le taux de concentration de CO2 dans l'air se mesure en partie par millions en volume.
  7. C'est dans les années 60 que la prévision du temps basée sur un modèle atmosphérique simplifié devient opérationnelle.
  8. La réduction des incertitudes dans les modèles fera l'objet d'un colloque international cet été à Paris.
  9. Le dernier rapport du Giec en 2001 annonce que la planète s'est réchauffée de 0,6°C au cours du siècle dernier.
  10. Dans le cadre de l'unité de recherche associée (URA) du CNRS Sciences de l'Univers.
  11. Le coupleur Oasis développé par le Cerfacs s'inscrit dans le cadre d'un projet européen, Programme For Integrated Earth System Modelling (PRISM). Il a pour objectif de concevoir une infrastructure commune destinée à coupler facilement les différents modèles du climat. Par exemple, grâce à cette interface, un même modèle d'atmosphère pourra être associé successivement à différents modèles d'océan.
  12. En mode forcé, le modèle océan est par exemple "contraint" avec des composantes de l'atmosphère, et vice versa.
  13. Dans le cadre du Groupe d'études de l'atmosphère météorologique (Ura du CNRS)