Du nouveau dans l’évolution de la température des océans

Il est difficile de se faire une idée précise de la température moyenne des océans car selon la profondeur cette température diminue très rapidement pour atteindre un minimum d’environ 4°C correspondant au maximum de densité de l’eau de mer. Le 5 juillet dernier dans un billet de ce blog était décrite l’évolution de la température dans le détroit de Makassar à l’aide de l’étude des squelettes de foraminifères mais une telle approche est ponctuelle et ne peut pas donner une image de la température moyenne globale des océans. Il existe une autre approche utilisant d’autres « proxys » en partant du principe qu’à l’interface eau-atmosphère de l’océan la situation est homogène en ce qui concerne la dissolution des gaz constituant l’atmosphère, qu’il s’agisse de l’eau océanique ou de la vapeur d’eau qui va se condenser en pluie ou en neige. Cette eau, et dans le cas de l’étude mentionnée ici cette neige va donc mémoriser l’image de cet interface océan-atmosphère. La neige se transforme en glace compacte en un siècle environ dans le cas des calottes glaciaires du Groenland ou de l’Antarctique et l’étude des gaz dissous permet alors de remonter dans le temps pour obtenir cette image de l’interface océan-atmosphère.

C’est à ce phénomène peu connu qu’une équipe de géophysiciens de la Scripps Institution of Oceanography à La Jolla en Californie vient de consacrer plusieurs années d’étude sous la direction du Docteur Jeff P. Severinghaus en collaboration avec un laboratoire suisse et un laboratoire japonais. L’idée était d’utiliser les rapports entre les gaz nobles, krypton et xénon et l’azote, trois gaz qui n’interagissent pas avec l’eau. L’évolution de la température moyenne des océans a ainsi pu être reconstruite à l’aide de ces nouveaux « proxys ». Le graphique ci-dessous est une description de l’anomalie des températures obtenues par cette approche innovante jusqu’en 1950 de l’ère commune, le zéro sur l’échelle des temps. Les courbes ont été décalées pour une meilleurs lisibilité comme indiqué sur le graphique. Le processus ayant mis fin au dernier maximum glaciaire (LGM) a débuté il y a un peu moins de 20000 ans avec une très forte augmentation des températures au cours de la période dite Henrich Stadial 1 (HS1). Une stabilisation durant 1600 ans (B/A, Bølling-Allerød) a alors été suivie d’un autre épisode de très fort réchauffement, plus de 2 degrés (ordre de grandeur de la catastrophe annoncée par l’IPCC), dite du Dryas récent (Younger Dryas, YD) et enfin un stabilisation jusqu’à nos jours.

Pour être crédible cette approche nouvelle a nécessité l’analyse de plus d’une soixantaine de forages dans l’Antarctique. Passons sur les détails technique que j’aurais moi-même quelques difficultés à exposer clairement, en particulier les analyses fines des divers isotopes de ces gaz nobles. Mais non contente d’avoir obtenu de tels résultats l’équipe de Severinghaus a utilisé la même approche pour l’étude de la précédente transition il y a 135000 ans. Quelle n’a pas été leur surprise en constatant que l’anomalie de température moyenne de l’océan avait atteint lors de cette transition la valeur de 4,5 degrés sans épisode de ralentissement comme le B/A (Bølling-Allerød) de la dernière transition glaciaire-interglaciaire.

Ce billet est un peu technique mais il a pu être rédigé grâce à l’aide du Docteur Severinghaus qui m’a fait parvenir sur ma demande les deux publications sur lesquelles s’appuie ce récit. Le Dr Severinghaus est ainsi vivement remercié ici. https://doi.org/10.1038/nature25152

https://doi.org/10.1038/s41561-019-0498-0

Note. À propos du xénon il s’agit d’un gaz rare ou noble car il est inerte, c’est-à-dire non réactif. Le xénon radioactif émanant des réacteurs à neutrons lents, l’isotope 135, a une durée de demi-vie de 9 heures et se désintègre en césium-135 avec émission beta, l’une des principales causes de la pollution radioactive autour de Tchernobyl et de la centrale de Fukushima. L’un des réacteurs EPR de la centrale chinoise de Taishan vient d’être mis à l’arrêt pour retirer les assemblages de combustible défectueux. Encore un autre déboire pour la France ? Oui, si les assemblages de combustible provenaient de la France, non s’ils avaient été produits en Chine.

Au XVIe siècle il faisait plus chaud dans le sud de l’Espagne qu’aujourd’hui

Une région méconnue du sud de l’Espagne que j’avoue ne pas connaître moi-même (et je le regrette) est la Province de Jaén faisant partie de l’Andalousie. Cette province produit à elle seule plus d’huile d’olive que toute l’Italie, ça c’est pour l’aspect économique de cette contrée essentiellement rurale, peu peuplée et totalement délaissée par les touristes qui préfèrent aller s’agglutiner sur la côte méditerranéenne. Pourtant la diversité des paysages, l’abondance de villages médiévaux et renaissance ainsi que la multitude de châteaux fortifiés érigés lors du long processus de reconquête de la péninsule occupée par les Mauresques devrait en faire une destination touristique et culturelle unique en Espagne. Ce ne sont pas du tout ces richesses du passé qui ont attiré des climatologues mais la présence de pins noirs (Pinus nigra) relativement abondants dans la Sierra de Cazorla dont certains vivent dans ces hauteurs escarpées depuis plus de 700 ans. La Sierra de Cazorla se trouve dans le prolongement de la Sierra Nevada, un lieu très prisé des skieurs du sud de l’Espagne. Elle fait partie d’une zone naturelle protégée accessible depuis la petite ville de Cazorla.

L’étude des cernes de croissance des arbres est maintenant une technique fiable, parfaitement calibrée et permettant d’aboutir à une estimation précise de la pluviométrie, elle-même corrélée aux températures via les variations des concentrations isotopiques des carbones 12 et 13. L’étude des pins noirs de la Sierra de Cazorla s’est pourtant heurtée à un problème majeur, l’absence de stations météorologiques à proximité. Pour accorder une certaine confiance à l’étude des cernes des arbres il est nécessaire d’établir une corrélation entre des relevés de températures et de précipitations si possible locaux aux cernes de croissance récents. Or la seule station météorologique récente se trouve dans la ville de Cazorla à une altitude inférieure de 1000 m de la zone où ont été étudiés les pins noirs. En comparant ces pins et ceux étudiés dans les Pyrénées espagnoles (Pinus sylvestris), deux laboratoires de l’Université Gutenberg de Mainz et de l’Université technique de Dresde ont pu établir une parfaite corrélation permettant de reconstruire l’évolution des températures jusqu’en 1350.

L’étape préliminaire de cette étude a consisté à agréger les données météorologiques des stations de Cazorla, Jaén, Ciudad Real, Albacete et Murcia couvrant la période 1900-2014 pour calibrer les données dendrologiques, en vert dans la figure ci-dessous, ne considérant que les mois de février, mars, avril, mai et septembre et octobre (FMAM&SO). La reconstruction des températures passées a permis de mettre en évidence une longue décroissance uniforme des températures au cours de la période 1600-1800 ponctuée par deux épisodes de froid à la fin des XVIIe et XVIIIe siècles. Existe-t-il une relation avec le minimum d’activité solaire dit de Maunder, nul ne peut l’affirmer, de même que les éruptions volcaniques n’ont pas vraiment modifié ces températures telles qu’elles ont été reconstruites, qu’il s’agisse de l’éruption du Huaynaputina au Pérou en 1600, du Kuwae au Vanuatu en 1453 ou plus près de nous du Tambora en 1815 qui ont pourtant affecté la météorologie dans toute l’Europe continentale. Il faut enfin remarquer une remarquable stabilité des températures depuis le début du XIXe siècle !

Source et illustrations : Atmosphere, 2020, 11, 748

Evolution des températures de surface au Groenland

Capture d’écran 2019-01-30 à 13.00.56.png

C’est en partant des données brutes des estimations des températures passées à l’aide du proxy δ18O et de la quantité d’air dans les bulles emprisonnées dans les carottes de glace procurant une indication de l’altitude de la glace au moment de sa formation provenant de 5 sites de sondage au Groenland que l’évolution des températures de surface a pu être reconstruite. Ces données disponibles au public (lien) ont été filtrées en utilisant une fenêtre temporelle de 2400 ans et moyennées pour chaque 20 années entre 9700 avant l’ère présente et 1980 + 20 *. De plus l’évolution de la teneur atmosphérique en CO2 a également été obtenue au cours de l’analyse de ces mêmes carottages.

Et voici ce que cette reconstruction montre :

Capture d’écran 2019-01-30 à 13.54.10.png

Il y eut entre les années – 8000 et – 4000, au moins vers 75° de latitude nord, une longue période beaucoup plus chaude qu’aujourd’hui (traits jaunes) alors que la teneur en CO2 était comprise entre 260 et 265 ppm (points bleus). Depuis – 4000 la tendance est donc au refroidissement et les carottages de glace ne mentent pas. On pourra bien se gratter l’épiderme crânien aussi longtemps que l’on voudra, il apparaît qu’il n’existe aucune corrélation entre le CO2 et l »évolution de la température de surface au Groenland …

Note. Il faut environ 20 ans pour que la glace devienne compacte. * Moyennes sur 20 ans.

http://www.iceandclimate.nbi.ku.dk/data/Temperature_reconstruction.pdf

Où les études sur le climat et le monde de la finance se rejoignent : mais pas où on le croirait !

Le 7 novembre 2018 j’avais laissé un billet sur ce blog qui précisait qu’à l’avenir il faudrait non pas se préparer à un réchauffement général du climat mais au contraire à un refroidissement de celui-ci, billet qui avait suscité une cinquantaine de commentaires, ce qui prouve bien que cette affaire de climat préoccupe tous les esprits. Tiraillée en effet entre la propagande officielle et le rappel au réalisme scientifique des spécialistes de cette discipline qu’est la climatologie, je le rappelle une science du passé puisque le climat futur, par définition, n’existe pas encore, l’opinion peine à trouver un repère. Dans ce billet du 7 novembre dernier (lien) les projections que faisait l’auteur auquel je me référais, Norman Page, puisque je ne suis pas du tout spécialiste de cette discipline (la dernière figure de ce billet), m’avaient paru, je dois l’avouer, surprenantes d’exactitude.

Je viens de trouver l’explication de ces prévisions qui émane d’une étude réalisée par un groupe de mathématiciens associés à des météorologistes de l’Université Zhejiang de Hangzhou en Chine. Ils ont appliqué les calculs dits K-line patterns (lien) sur les données climatiques relatives aux températures globales de la surface de la Terre (GLST, global land surface temperatures) telles qu’elles ont été observées depuis 1880. Les calculs prédictifs K-line sont utilisés par les économistes des salles de marché pour prédire l’évolution des cours des valeurs cotées. Il s’agit de fonctions mathématiques reconnaissant et modélisant des évolutions de données brutes pouvant être décrites par des polynômes de fonctions sinusoïdales :

Capture d’écran 2019-01-23 à 19.04.56.png

La modélisation est affinée par le calcul automatique afin de correspondre au mieux aux données expérimentales connues (donc du passé) pour être ensuite appliquées à un futur proche voire plus lointain. Ce type d’approche est bien connu de ceux que le grand public appelle des « traders » car il est inclus dans les algorithmes de prises de décisions qu’ils utilisent quotidiennement à la micro-seconde près pour intervenir sur les marchés. Si j’ai bien compris l’intérêt des K-line patterns l’ordinateur est capable d’ajuster ses calculs en essayant d’adapter puis de modifier en temps réel les paramètres de ces polynômes de calculs de simulation. C’est peut-être ce que l’on appelle l’ « intelligence artificielle » appliquée par l’industrie de la finance puisque la machine « apprend » à affiner ses calculs. En réalité il s’agit d’une perception anthropomorphique du travail de l’ordinateur qui ne peut calculer qu’en utilisant ce dont il dispose et qu’un développeur a introduit dans sa mémoire, ce que l’on appelle pompeusement le « machine learning ».

Les calculs ayant permis de déterminer le polynôme décrivant au mieux la réalité des observations des températures passées a fait appel au filtrage de 15295 fonctions périodiques pour atteindre un coefficient de corrélation de 0,903 ce qui est satisfaisant en regard de la forêt de points expérimentaux utilisés dans cette étude.

Voici le type de fonction numérique utilisée dans ces calculs d’analyse des données brutes de GLST :

Capture d’écran 2019-01-24 à 11.47.14.png

Les mathématiciens de l’Université Zhejiang ont retrouvé les prédictions mentionnées par Norman Page et il est intéressant de commenter le graphique produit par cette équipe avec quelques différences (voir l’illustration en fin de billet) :

Capture d’écran 2019-01-23 à 19.13.38.png

La modélisation ayant été satisfaisante pour les données passées, le modèle a donc été appliqué « vers le futur » exactement comme les spécialistes des marchés financiers le font quotidiennement.

Les températures moyennes de la surface de la Terre vont brutalement chuter mais cette chute va évoluer par vagues jusqu’en 2040, le temps pour les habitants de l’hémisphère nord de s’adapter, en quelque sorte. Ensuite la spéculation reste de mise car nul ne peut prévoir très exactement ce qui se passera au niveau « régional ». Le continent nord-américain qui n’est pas sous l’influence du Gulf Stream subit depuis plusieurs années des hivers particulièrement rigoureux. L’Europe, année après année, endure des hivers que l’homme de la rue qualifie de « pourris » qui vont donc, selon ce modèle, devenir de plus en plus froids mais avec modération car l’inertie thermique de l’Océan Atlantique amortira encore quelque temps cette tendance. Mais pour les Chinois la situation est plus préoccupante car le climat est directement dépendant des oscillations des températures de surface de l’Océan Pacifique.

La modélisation appliquée aux températures passées a été également élargie aux variations de température de surface de cet océan en particulier dans la zone inter-tropicale où apparaît le phénomène El Nino qui affecte temporairement l’ensemble des conditions météorologiques de la planète. L’application de l’analyse mathématique K-line a été appliquée aux phénomènes El Nino passés et elle a mis en évidence un paramètre peu connu de stabilisation du climat par ce que cette équipe a appelé l’ « ocean stabilization machine » qui n’a pas été incluse dans les prédictions issues du calcul K-line.

Capture d’écran 2018-11-06 à 19.05.43 - copie.png

On peut donc rester raisonnablement optimiste car la situation climatique ne changera pas brutalement en raison de l’inertie thermique des océans. Il reste néanmoins à préciser le rôle direct sur le climat des circulations océaniques qui est encore très largement méconnu. Pour l’Océan Atlantique nord il existe des oscillations dont la période est d’environ 60 ans mais dans l’ensemble ce rôle direct des océans sur l’évolution à long terme du climat constitue une discipline à part entière dans la science du climat elle-même très complexe.

Source et illustrations, doi : 10.4236/acs.2019.91009

https://www.hindawi.com/journals/mpe/2017/3096917/ et sur ce blog : https://jacqueshenry.wordpress.com/2018/11/07/le-refroidissement-a-venir-precisions-climatiques-precises-a-lusage-des-decideurs-politiques/