La dendrologie revisitée : résultats spectaculaires

La dendrologie est une science à part entière consistant à étudier les cernes de croissance des arbres. Le tissu architectural du bois est constitué de polyphénols complexes et dans les régions du globe terrestre où il existe une alternance des saisons il est possible de calculer l’âge d’un arbre en comptant les cernes de croissance. Ce qui est plus riche en renseignements est la structure fine de ces cernes et leur épaisseur. Une telle étude permet d’obtenir des renseignements sur la température au cours de la période de croissance s’étalant sur une partie du printemps, l’été et une partie de l’automne dans les régions dites tempérées. Les feuilles, ou les épines pour les conifères, sont les moteurs du mouvement de la sève dans la partie la plus externe du tronc de l’arbre. Il est donc facile de comprendre que l’arbre ne croit que s’il y a des feuilles. La partie plus interne du tronc de l’arbre est en réalité une architecture ligneuse inerte qui gagne en épaisseur et en solidité avec la croissance de l’arbre.

La structure de chaque cerne indique que les cellules sont plus grandes au début de la saison de croissance avec des parois ligneuses fines qui s’épaississent au fur et à mesure que la saison avance devant également plus petites en délimitant ainsi un cerne. Le tissu ligneux présente la particularité d’émettre une lumière bleue sous un éclairage ultra-violet, lumière mesurable et permettant d’approfondir le processus de croissance de l’arbre au cours de la saison, en particulier la vitesse de cette croissance qui dépend essentiellement de la température. En effet le mouvement ascendant de la sève dépend de la température à laquelle sont soumises les feuilles ou les aiguilles dans le cas des conifères. L’étude microscopique de ces cernes de croissance a été mise en œuvre avec des pins sylvestres se trouvant à la limite nord de la forêt boréale au nord-est de la Finlande. Les travaux ont été partagés entre l’Institut fédéral suisse de la forêt, l’Université de Gothenburg et l’Université catholique de Louvain et les résultats obtenus sont surprenants.

Capture d’écran 2020-07-06 à 19.10.33.png

Pourquoi avoir choisi de tels arbres ? La réponse est simple. La pluviométrie et l’hygrométrie dans cette région est pratiquement constante au cours de la saison de croissance des arbres et seule la température module cette croissance. Appliquée dans ce cas particulier, au delà de 65 degrés nord, la dendrologie permet d’obtenir un profil très précis de l’évolution de la température estivale loin des perturbations de l’Atlantique nord, le pourtour de l’Océan arctique étant relativement stable au cours de l’été. La température optimale pour la croissance des arbres dans cette région ne s’étale que sur une durée très courte ne dépassant pas deux mois par an. L’illustration ci-dessus détaille la technique d’analyse de chaque cerne de croissance. Celui-ci est divisé en 10 parties d’une épaisseur d’environ 10 microns chacune et un logiciel d’analyse permet de quantifier l’épaisseur des parois cellulaires et leur croissance radiale (rCWT, radial cell wall thickness) ou tangentielle (tCWT, tangential cell wall thickness). L’analyse permet d’en déduire le volume de lignine de chaque cellule par rapport au volume total de la cellule ainsi que la densité anatomique (aD) et par analyse de la fluorescence dans le bleu sous éclairage UV l’épaisseur radiale des parois cellulaires. Cette épaisseur décroit au fur et à mesure que l’arbre grandit par ajout d’un cerne supplémentaire chaque année comme l’indique le profil en bleu dans la partie d) de l’illustration, EW étant le bois précoce, au début de la saison de croissance et LW le bois tardif en fin de saison de croissance.

Les résultats globaux obtenus par cette analyse très fine et novatrice ont été rassemblés dans une figure (ci-dessous) exprimés en Zscore ou déviation par rapport à la moyenne de tous les points expérimentaux pour chaque paramètre : largeur des cernes (rig width), MXBI ou intensité maximale de la fluorescence bleue sous UV, MXD ou densité maximale du bois tardif au cours de la saison de croissance, aLWD ou densité moyenne du bois tardif, Max.rCWT ou épaisseur radiale de la paroi cellulaire et enfin CRUTEMA4 ou données des températures relevées sur la cellule 65-70°N-25-30°E « moyennées » d’avril à septembre, de juin à août et seulement de juillet depuis 1875.

Capture d’écran 2020-07-06 à 12.14.20

Quel enseignement en tirer ? Les 5 paramètres dendrologiques rassemblés dans cette figure sont concordants. À l’issue du petit âge glaciaire, au début du vingtième siècle, il y eut pendant une quarantaine d’années (1910-1950-60) une période climatique « chaude » culminant vers la fin des années 1930. Ceci a été confirmé par l’abondance des taches solaires en particulier. À partir de 1960 l’effet de la température sur les cernes de croissance se stabilise avec d’autant plus de clarté que la période propice à la croissance des arbres dépasse rarement 2 mois entre le 15 juin et le 15 août. Si les relevés de température CRUTEMA sont d’une remarquable stabilité en réalité il faut considérer avec une extrême précaution ces données de températures.

En effet les relevés de températures présentés dans cette illustration sont contestables dans la mesure où la rareté des stations météo est un facteur limitant et chaque « carré » de la surface terrestre ne peut en aucun cas rendre compte de la réalité. J’admire au passage l’honnêteté des auteurs de l’étude qui ont osé insérer ces relevés de température qui n’ont d’autre qualité que de montrer cette stabilité inattendue au cours des années passées. Il s’agit de données brutes lissées et représentées et exprimées également en Zscores. Ce seul fait est contestable puisque les températures, aux extrêmes considérées, avril et septembre, peuvent déjà varier de moins 10°C le matin à plus15°C l’après-midi du même jour. Que signifie alors le Zscore ? On est en droit de se poser la question. Enfin, la croissance des pins dans cette région boréale à l’extrême limite de la forêt est très sensible aux températures qui sont largement dépendantes de l’ensoleillement de 24 heures autour du solstice. Il n’est pas permis non plus d’oublier l’effet des transferts de chaleur entre les zones tropicales et les pôles comme l’a bien documenté le Professeur Lindzen dans son article traduit par mes soins sur ce blog. Il reste donc qu’entre 1915 et 1950 un réchauffement du climat a bien été montré par les résultats de cette étude et seule la température a influencé la croissance de ces pins sylvestres. Des travaux complémentaires utilisant cette même technique superbement détaillée et dans d’autres régions arctiques ou sub-arctiques permettront un jour d’en savoir plus.

Source et illustrations : https://doi.org/10.1016/j.dendro.2020.125673

https://jacqueshenry.wordpress.com/2020/06/27/une-image-simpliste-de-levolution-du-climat-basee-sur-un-seul-parametre-peut-conduire-a-des-conclusions-erronees/

Pour les curieux désirant avoir plus d’informations sur les relevés de températures CRUTEMA voici un lien indiquant clairement le peu de fiabilité de ces évaluations : doi:10.5194/essd-6-61-2014 en accès libre. Il suffit de considérer qu’en France, avec ce système d’évaluation, les températures moyennes sont les mêmes du Havre à Montélimar et de Bordeaux à Charleville-Mézières !

Une image simpliste de l’évolution du climat basée sur un seul paramètre peut conduire à des conclusions erronées.

Lindzen©Francisco Guasco-EFE-MAXPPP copie.jpg

Par Richard S. Lindzen, Professeur émérite à l’Alfred P. Sloan Department of Atmospheric Sciences, MIT, Cambridge, Massachusetts

Avant-propos de votre serviteur. J’ai osé imposer à mes lecteurs la laborieuse lecture d’un document scientifique apportant des preuves irréfutables de l’imposture qu’utilisent les pays occidentaux pour justifier des décisions ruineuses pour leur économie afin de sauver le climat. Cette année 2020 sera encore déclarée l’année la plus chaude après le début de l’ère industrielle et c’est tout à fait vrai puisque depuis 1998 la température moyenne globale n’a pas évolué, donc les années à venir resteront les « plus chaudes » jusqu’au refroidissement prévu par les spécialistes dans le domaine du climat. Lindzen démonte la théorie du réchauffement du climat adossée sur un seul facteur, le CO2. Si j’ai pris la peine de traduire son article c’est simplement parce qu’il est compréhensible et qu’il doit être lu et dispersé autour de vous car il est solide et incontestable. Si l’un de mes lecteurs désire contacter Richard Lindzen voici son adresse électronique : rlindzen@mit.edu . Bonne lecture.

Résumé. La nature du système climatique est passée en revue. Ensuite, l’histoire des approches scientifiques des principaux problèmes climatiques est examinée, notant que la centralité de la contribution du dioxyde de carbone est relativement récente et probablement inappropriée pour une grande partie de l’histoire climatique de la Terre. La faiblesse de caractériser le comportement climatique global en utilisant un seul processus physique, le forçage radiatif moyenné à l’échelle mondiale, est illustrée en considérant le rôle d’un processus également bien connu, le transport thermique méridional par des processus hydrodynamiques qui, en changeant la différence de température entre l’Equateur et les pôles, a également un impact sur la température moyenne mondiale.

Introduction. Le tableau actuel de la question du réchauffement climatique présenté au grand public repose sur le fait que le CO2 absorbe et émet dans l’infrarouge, et que son ajout dans l’atmosphère doit donc conduire à un certain réchauffement. En effet, la terre se réchauffe depuis la fin du petit âge glaciaire, et le niveau de CO2 a en effet augmenté, mais cela ne constitue guère une preuve. Cependant, le fait que des modèles informatiques à grande échelle puissent être réalisés pour reproduire le réchauffement avec l’augmentation du CO2 est considéré comme une preuve solide. Au-delà de cela, l’affirmation selon laquelle tout réchauffement indique une catastrophe, surtout si elle est supérieure à l’objectif défini politiquement de + 1,5 °C (dont plus de 1 °C a déjà eu lieu), et exige des réductions importantes de l’utilisation des combustibles fossiles [16] (cf. références en fin de traduction).

Bien qu’il soit souvent noté que le réchauffement par effet de serre est connu depuis longtemps dans la littérature sur le climat, il s’avère que cela n’était généralement pas considéré comme une cause majeure du changement climatique avant les années 1980. Dans cet article, nous présentons une description du système climatique afin de replacer le rôle du réchauffement par effet de serre dans un contexte approprié. Nous examinons ensuite comment le climat était perçu dans la littérature antérieure (ainsi que certains travaux plus récents), et comparons cela avec l’approche actuelle. Il est démontré qu’il existe des raisons substantielles de considérer la présente explication publiquement acceptée comme improbable.

Le système climatique. Ce qui suit est une description totalement non controversée du système climatique.

i. Le cœur du système que nous examinons consiste en deux fluides turbulents, l’atmosphère et les océans, interagissant l’un avec l’autre.

ii. Les deux fluides se trouvent sur une planète en rotation qui est chauffée de manière différentielle par le soleil.

Cela se réfère simplement au fait que le rayonnement solaire est directement incident à l’équateur alors qu’il effleure à peine la terre aux pôles. Le chauffage inégal entraîne la circulation de l’atmosphère et ces mouvements sont responsables du transport méridional de la chaleur.

iii. La composante océanique a des systèmes de circulation avec des échelles de temps allant des années aux millénaires, et ces systèmes transportent la chaleur vers et depuis la surface.

Le forçage de l’océan est complexe. En plus du chauffage différentiel, il y a le forçage par le vent et les injections d’eau douce. En raison de la densité plus élevée de l’eau par rapport à l’air, les circulations sont beaucoup plus lentes dans l’océan et les circulations peuvent avoir de très longues échelles de temps. Le fait que ces circulations transportent la chaleur vers et depuis la surface signifie que la surface n’est jamais en équilibre avec l’espace.

iv. En plus des océans, l’atmosphère interagit avec une surface terrestre extrêmement irrégulière. Le flux d’air est fortement déformé par le passage sur les principales hétérogénéités topographiques et thermiques de la surface qui forment des ondulations à l’échelle planétaire et celles-ci impactent fortement les variations régionales lointaines du climat qui, il s’avère, sont généralement insuffisamment décrites dans les modèles [3].

v. Un constituant essentiel du composant atmosphérique est l’eau dans les phases liquide, solide et vapeur, et les changements de phase ont de vastes ramifications énergétiques. Chacune de ces phases physiques de l’eau a un rôle également extrêmement important.

Le dégagement de chaleur lorsque la vapeur d’eau se condense conduit à la formation de nuages d’orage (appelés cumulonimbus) et ce processus est important. De plus, les nuages sont constitués d’eau sous forme de fines gouttelettes et de glace sous forme de fins cristaux. Normalement, ces fines gouttelettes et cristaux sont suspendus par l’augmentation des courants d’air, mais lorsque ceux-ci deviennent suffisamment gros, ils tombent dans l’air ascendant sous forme de pluie et de neige. Non seulement les énergies impliquées dans les transformations de phase sont importantes, mais le fait est que la vapeur d’eau et les nuages (à base de glace et d’eau) affectent fortement le rayonnement. Les deux substances à effet de serre les plus importantes sont de loin la vapeur d’eau et les nuages. Les nuages sont également d’importants réflecteurs de la lumière solaire. Ces questions sont examinées en détail dans les rapports du GIEC WG1, dont chacun reconnaît ouvertement les nuages comme sources principales d’incertitude dans la modélisation du climat.

vi. Le bilan énergétique de ce système implique l’absorption et la réémission d’environ 240 W / m2. Le doublement du CO2 entraîne une perturbation un peu inférieure à 2% de ce bilan (4 W / m2) [33]. Il en va de même pour les changements dans les nuages et autres fonctionnalités, et ces changements sont courants.

La Terre reçoit environ 340 W / m2 du soleil, mais environ 100 W / m2 est simplement renvoyé dans l’espace à la fois par la surface de la Terre et, plus important encore, par les nuages. Cela laisserait environ 240 W / m2 que la terre devrait réémettre pour établir l’équilibre. Le soleil rayonne dans la partie visible du spectre de rayonnement parce que sa température est d’environ 6000 °K. Si la Terre n’avait pas du tout d’atmosphère (mais à des fins d’argument, si elle réfléchissait toujours 100 W / m2), elle devrait rayonner à une température d’environ 255 °K (- 18 °C), et, à cette température, le rayonnement se trouve principalement dans l’infrarouge.

Bien sûr, la Terre a une atmosphère et des océans, ce qui introduit une multitude de complications. L’évaporation des océans produit de la vapeur d’eau dans l’atmosphère, et la vapeur d’eau absorbe très fortement et émet des rayonnements dans l’infrarouge. La vapeur d’eau empêche essentiellement le rayonnement infrarouge de quitter la surface de la Terre, provoquant le réchauffement de cette surface et (par conduction) de l’air adjacent à la surface, et la convection s’installe. La combinaison des processus radiatifs et convectifs entraîne une diminution de la température avec la hauteur. Pour compliquer les choses, la quantité de vapeur d’eau que l’air peut contenir diminue rapidement à mesure que la température diminue. Au-dessus d’une certaine hauteur, il reste si peu de vapeur d’eau que le rayonnement à ce niveau peut maintenant s’échapper dans l’espace. C’est à ce niveau élevé (environ 5 km) que la température doit être d’environ 255 °K pour équilibrer le rayonnement entrant. Cependant, comme la température diminue avec la hauteur, la surface de la Terre doit maintenant être en fait plus chaude que 255 °K. Il s’avère qu’elle doit être d’environ 288 °K (15 °C, ce qui est en effet la température moyenne de la surface de la Terre). L’ajout d’autres gaz à effet de serre (comme le CO2) augmente encore le niveau d’émission et provoque une augmentation supplémentaire de la température du sol. On estime que le doublement du CO2 équivaut à un forçage d’environ 4 W / m2, ce qui représente un peu moins de 2% des 240 W / m2 entrants nets.

La situation peut en fait être plus compliquée si des nuages de type cirrus de niveau supérieur sont présents. Ce sont des absorbeurs et émetteurs de rayonnement infrarouge très puissants qui bloquent efficacement le rayonnement infrarouge vers le bas. Ainsi, lorsque de tels nuages sont présents au-dessus d’environ 5 km, avec leur sommet à plus de 5 km d’altitude, ils déterminent le niveau d’émission. Cela rend la température du sol (c’est-à-dire l’effet de serre) dépendante de la couverture nuageuse. La quantification de cet effet peut être trouvée dans Rondanelli et Lindzen [29].

De nombreux facteurs, notamment les fluctuations de la zone et de la hauteur moyenne des nuages, la couverture neigeuse, les circulations océaniques, etc… entraînent généralement des modifications du budget radiatif comparables à celles du doublement du CO2. Par exemple, l’effet radiatif moyen global net des nuages est de l’ordre de – 20 W / m2 (effet de refroidissement). Un forçage de 4 W / m2, à partir d’un doublement de CO2, ne correspond donc qu’à une variation de 20% de l’effet net des nuages.

vii. Il est important de noter qu’un tel système fluctuera avec des échelles de temps allant de quelques secondes à des millénaires même en l’absence de forçage explicite autre qu’un Soleil ayant une activité fixe.

Une grande partie de la littérature populaire (des deux côtés du débat sur le climat) suppose que tous les changements doivent être entraînés par un facteur externe. Bien sûr, le système climatique est entraîné par le Soleil, mais même si le forçage solaire était constant, le climat continuerait de varier. De plus, étant donné la nature massive des océans, de telles variations peuvent impliquer des échelles de temps de millénaires plutôt que de millisecondes. El Nino est un exemple relativement court impliquant quelques années, mais la plupart de ces variations temporelles internes sont trop longues pour être même identifiées dans notre système de données instrumentales relativement court. La nature a de nombreux exemples de variabilité autonome, notamment le cycle des taches solaires d’environ 11 ans et les inversions du champ magnétique terrestre tous les deux cent mille ans environ. À cet égard, le système climatique n’est pas différent des autres systèmes naturels, c’est-à-dire qu’il peut présenter une variabilité autonome. Des exemples bien connus comprennent l’oscillation quasi biennale de la stratosphère tropicale, l’oscillation australe El-Nino, l’oscillation multidécennale atlantique et l’oscillation décennale du Pacifique.

viii. Bien sûr, ces systèmes répondent également au forçage externe, mais un tel forçage n’est pas nécessaire pour qu’ils présentent une variabilité.

Se limiter à des questions totalement non controversées signifie que la description ci-dessus n’est pas entièrement complète, mais elle montre l’hétérogénéité, les nombreux degrés de liberté et les nombreuses sources de variabilité du système climatique.

L’évaluation «consensuelle» de ce système est aujourd’hui la suivante : Dans ce système multifactoriel complexe, le climat (qui, lui-même, se compose de nombreuses variables – en particulier la différence de température entre l’équateur et les pôles) est décrit par une seule variable, la variation de la température moyenne mondiale, et est contrôlé par la perturbation de 1 à 2% du budget énergétique due à une seule variable (n’importe quelle variable) parmi de nombreuses variables d’importance comparable. Allons plus loin et désignons le CO2 comme unique contrôle. Bien que nous ne soyons pas sûrs du budget de cette variable, nous savons précisément quelles politiques mettre en œuvre pour la contrôler.

Comment une image aussi naïve a-t-elle pu être acceptée, non seulement par les partisans de ce seul paramètre, mais aussi par la plupart des sceptiques ? Après tout, nous consacrons une grande partie de nos efforts à discuter des relevés des températures mondiales, de la sensibilité au climat, etc… En bref, nous sommes guidés par cette ligne de pensée.

Historique

En fait, ce point de vue sur le climat a été initialement rejeté par de nombreuses personnalités, dont le directeur du Scripps Institute of Oceanography (1), le directeur du Centre européen de prévision météorologique à moyen terme (2), le chef de l’Organisation météorologique mondiale (3), le chef de l’unité de recherche sur le climat de l’Université d’East Anglia (4), l’ancien chef du British Meteorological Office (5), un ancien président de la US National Academy of Science (6), les principaux climatologues soviétiques (7) etc. Même en 1988, lorsque James Hansen a présenté son célèbre témoignage au Sénat américain, Science Magazine a fait état d’un scepticisme généralisé dans la petite communauté des climatologues d’alors. Cependant, tous ces individus appartenaient à une génération plus âgée et beaucoup sont maintenant morts. Entre 1988 et 1994, les choses ont radicalement changé. Aux États-Unis, le financement pour le climat a augmenté d’un facteur d’environ 15. Cela a entraîné une forte augmentation du nombre de personnes intéressées à travailler en tant que « climatologues », et les nouveaux climatologues ont compris que la raison du financement était l’ « alarme de réchauffement climatique ».

En France, dans les années 60, il y avait essentiellement un seul météorologiste théorique, Queney. Aujourd’hui, des centaines sont impliqués dans les modèles sinon la théorie, et cela est largement dû au « réchauffement climatique ». Est-il déraisonnable de se demander si un seul mouvement politique n’a pas réussi à saisir ce domaine scientifique ?

Note. (1) William Nierenberg, (2) Lennard Bengtsson, (3) Askel Wiin-Nielsen, (4) Hubert Lamb, (5) Basil John Mason, (6) Frederick Seitz, (7) Mikhail Budyko, Yuri Izrael et Kiril Kondratiev.

Quelle était la situation auparavant ? Pendant la majeure partie du XXe siècle, le climat était un petit sous-ensemble de petits domaines de la météorologie et de l’océanographie avec des contributions importantes d’une poignée de géologues. Presque aucun grand scientifique travaillant sur des aspects du climat ne s’appelait lui-même «climatologues». En météorologie, l’approche dominante du climat était la météorologie dynamique (bien que l’effet de serre fut bien connu).

Pfeffer [27] fournit un bon exemple de ce qui était considéré comme les problèmes fondamentaux du climat en 1955. Il s’agit des actes d’une conférence qui a eu lieu en 1955 à l’Institut d’études avancées de l’Université de Princeton, où John von Neumann avait commencé la prévision numérique du temps. Les contributeurs à ce volume comprenaient J. Charney, N. Phillips, E. Lorenz, J. Smagorinsky, V. Starr, J. Bjerknes, Y. Mintz, L. Kaplan, A. Eliassen, entre autres (avec une introduction de J. Robert Oppenheimer). Les contributeurs étaient généralement considérés comme les chefs de file de la météorologie théorique. Un seul article traitait du transfert radiatif et ne se concentrait pas sur l’effet de serre, bien que l’augmentation du CO2 soit brièvement mentionnée. Certes, Callendar [4] avait suggéré que l’augmentation du CO2 aurait pu provoquer le réchauffement de 1919 à 1939, mais les principaux météorologues anglais de l’époque, Simpson et Brunt, ont souligné les lacunes de son analyse dans les commentaires qui ont suivi la présentation du papier de Callendar.

Première approche du climat par rapport à la position actuelle

Dans les années 80, avec les progrès de la paléoclimatologie, plusieurs aspects de l’histoire du climat sont apparus avec une clarté accrue. Nous avons commencé à voir plus clairement la nature cyclique des cycles de glaciation du dernier million d’années environ [14]. Des périodes chaudes comme l’Éocène (il y a 50 millions d’années) sont devenues mieux définies [32]. Les données suggèrent que pour les périodes glaciaires et les périodes chaudes, les températures équatoriales ne différaient pas beaucoup des valeurs actuelles, mais la différence de température entre les tropiques et les hautes latitudes variait considérablement. Voici les différences de température:

Capture d’écran 2020-06-25 à 15.30.26.png

Les variations des températures équatoriales étaient beaucoup plus faibles que les différences ci-dessus. Fait intéressant, cependant, les estimations originales étaient que la température équatoriale pendant l’Éocène était un peu plus froide qu’elle ne l’est aujourd’hui [32], tandis que la température équatoriale pendant le dernier maximum glaciaire (LGM) était un peu plus chaude qu’elle ne l’est aujourd’hui. Bien sûr, ce n’est pas ce à quoi on pourrait s’attendre pour le forçage par effet de serre, et des efforts intenses ont été déployés pour « corriger » les températures équatoriales. Aujourd’hui, la température équatoriale de l’Éocène, communément admise, est considérée comme impossible à distinguer de celle d’aujourd’hui [25], tandis que la température équatoriale du LGM est généralement considérée comme étant environ 2 °C plus froide qu’aujourd’hui. En ce qui concerne cette discussion, les changements de température équatoriale sont encore faibles. La situation ci-dessus soulève des questions passionnantes et importantes concernant le climat. Nous allons examiner trois de ces questions.

1. Qu’est-ce qui explique les cycles de glaciation des 700 000 dernières année ?

Milankovitch [23] a avancé très tôt une suggestion intéressante à ce sujet : à savoir que les variations orbitales entraînaient de fortes variations de l’insolation estivale dans l’Arctique, ce qui déterminait si les accumulations de neige hivernales fondaient ou persistaient tout au long de l’été. Imbrie et d’autres ont trouvé une corrélation assez faible entre les pics du forçage orbital et le volume de glace arctique. Cependant, Roe [28] et Edvardsson et al. [6] ont montré que lorsque l’on compare la dérivée temporelle du volume de glace plutôt que le volume de glace lui-même, la corrélation avec l’insolation estivale est excellente. C’est ce qui est montré explicitement dans la figure 1 (tiré de Roe [28]). Cette figure montre le meilleur ajustement des paramètres orbitaux à la dérivée temporelle du volume de glace, et cela est presque identique au paramètre Milankovitch. Notez que l’insolation varie localement d’environ 100 W / m2. Edvardsson et al. [6], a montré que les variations de l’insolation était quantitativement cohérente avec la fonte et la croissance de la glace. Cela semble constituer une preuve solide du bien-fondé de la proposition de Milankovitch. (Note. SPECMAP est l’acronyme du projet de datation des sédiments marins afin de permettre la datation des carottages glaciaires tant au Groenland qu’en Antarctique).

Capture d’écran 2020-06-25 à 15.38.47.png

Il est intéressant de noter comment la position dominante actuelle traite de ce problème (Ruddiman [30], voir aussi Genthon et al. [8]). Aucune mention n’est faite du succès remarquable des efforts indépendants d’Edvardsson et al. [6] et Roe [28]. De plus, Roe a dû inclure une mise en garde que son travail n’avait aucune implication pour le rôle du CO2, afin de pouvoir faire publier son article (communication personnelle).

L’approche officielle actuelle [15] est la suivante : l’insolation estivale arctique est ignorée et au contraire, seule l’insolation moyenne à l’échelle mondiale et annuelle est prise en compte, et celle-ci varie d’environ deux ordres de grandeur de moins que l’insolation estivale de l’Arctique. Un rôle causal du CO2 ne peut pas être revendiqué puisque ces variations (entre 180 et 280 ppmv – correspondant à un changement de forçage radiatif d’environ 1 W / m2) suivent plutôt que précèdent les changements de température. Il est donc soutenu que les variations orbitales « rythment » les cycles de glaciation et que les changements de CO2 qui en résultent fournissent l’amplification nécessaire. Cette interprétation est une conséquence directe du fait de considérer l’insolation globale comme le moteur des changements. En réalité, comme le notent Roe (et Milankovitch), l’Arctique réagit au rayonnement dans l’Arctique, et les changements dans l’Arctique sont beaucoup plus importants que ceux associés à l’insolation moyenne mondiale. Pour être juste, il convient de mentionner que des analyses plus récentes tendent à corroborer cette image plus réaliste de la réponse des hautes latitudes à l’insolation (par exemple Abe-Ouchi et al. [1] ou Ganopolski et Brovkin [7]).

Revenons maintenant aux deux questions restantes. 2. Qu’est-ce qui explique la stabilité des températures tropicales? Les processus radiatifs-convectifs (y compris l’effet de serre) sont généralement considérés comme jouant un rôle majeur dans la détermination de la température tropicale. Le fait que ces températures semblent avoir peu changé dans des régimes climatiques radicalement différents est compatible avec une faible sensibilité au forçage par effet de serre [22]. En effet, il existe des preuves solides qu’il y a environ 2,5 milliards d’années, les températures équatoriales du sol étaient à peu près les mêmes qu’aujourd’hui, malgré une constante solaire inférieure de 20 à 30% à ce qu’elle est aujourd’hui. Sagan et Mullen [31] y ont fait référence sous le nom de « Early Faint Sun Paradox » (paradoxe du soleil faible ancien). La plupart des tentatives pour expliquer cela se sont appuyées sur des niveaux divers gaz à effet de serre, mais, comme l’ont montré Rondanelli et Lindzen [29], il est facilement expliqué par les rétroactions négatives des nuages de cirrus de niveau supérieur, comme cela a été constaté précédemment par Lindzen et al. [21]. 3. Qu’est-ce qui a déterminé les différences de température du sol de l’équateur au pôle ? Ici, on pensait généralement que le processus dynamique responsable du transfert de chaleur nord-sud était impliqué. Le processus est ce qu’on appelle l’instabilité barocline [12, 20, 26] (et essentiellement tous les manuels sur la dynamique des fluides en géophysique), et la pensée conventionnelle était que la différence de température résultait de l’équilibration de cette instabilité où l’état moyen se rapproche d’un état neutre vis-à-vis de cette instabilité. Le casse-tête, cependant, était de savoir comment il pouvait y avoir différentes équilibrations pour différents climats. La première tentative pour déterminer l’état d’équilibre a utilisé ce qu’on appelle l’approximation à deux couches dans laquelle l’atmosphère est approximée par 2 couches. Dans les systèmes en rotation comme la Terre, il existe une forte proportionnalité entre le cisaillement vertical du vent et le gradient de température horizontal. C’est ce qu’on appelle la relation du vent thermique. Dans le modèle à deux couches, il existe un cisaillement critique pour l’instabilité barocline et une différence de température méridienne associée entre les tropiques et le pôle qui s’est avérée être de 20 °C [19], qui est la valeur durant l’Éocène. En présence de neige et de glace, le profil de température vertical affiche ce que l’on appelle l’inversion arctique où, au lieu de la diminution habituelle de la température avec l’altitude, la température augmente en fait avec cette altitude. Cette inversion augmente considérablement la stabilité statique de l’atmosphère sous la tropopause et, comme suggéré par Held et Suarez [9], cela devrait réduire le transport thermique méridien. Cela semble expliquer les différences de température entre les tropiques et les pôles au cours du présent et des grandes glaciations.

La situation lorsque l’on considère une atmosphère continue au lieu du modèle à deux niveaux est beaucoup plus difficile à traiter. L’équilibration, dans ce cas, détermine la pente de la surface iso-entropique reliant la surface tropicale à la tropopause polaire [17] tout en laissant ambigu le champ de température en dessous de cette surface. L’équilibration se réfère simplement à ce que les instabilités barocliniques tentent de produire. L’entropie dans l’atmosphère est décrite par ce qu’on appelle la température potentielle. Il s’agit de la température qu’aurait une parcelle d’air si elle était abaissée adiabatiquement à la surface (là où la pression est plus élevée). Un isentrope originaire de la surface sous les tropiques s’élèvera à l’approche du pôle et déterminera essentiellement la température à la tropopause au-dessus du pôle. Selon Jansen et Ferarri [17], cela, à son tour, détermine la différence de température des tropiques au pôle à la hauteur de la tropopause polaire (environ 6 km), et cette valeur est d’environ 20 °C. Quand on regarde le climat d’aujourd’hui, on voit que la différence de température pôle-équateur à l’altitude de la tropopause polaire est en fait d’environ 20 °C [24]. L’existence de l’inversion arctique fait que les différences de température de surface entre les tropiques et le pôle sont plus importantes qu’elles ne le sont à la tropopause.

Encore une fois, l’explication actuellement répandue a une vision différente de cette situation. La physique a fini par être associée exclusivement à l’effet de serre amplifié par la rétroaction positive supposée de la vapeur d’eau. La variation de la différence de température entre l’équateur et le pôle a été attribuée à une certaine «amplification polaire» imaginaire, selon laquelle la température pôle-équateur suivait automatiquement la température moyenne [11]. Bien que l’analogie ne soit guère exacte, elle n’est pas si différente de l’hypothèse selon laquelle le débit d’eau dans une conduite dépend de la pression moyenne plutôt que du gradient de pression. En effet, il a été noté que certains modèles importants affichent à peine cette amplification polaire [18], tandis que les tentatives de modélisation de l’Éocène en augmentant simplement le CO2 aboutissent souvent à la distribution de température équateur-pôle d’aujourd’hui qui est uniformément augmentée [2, 13]. En ce qui concerne l’Éocène, cela a conduit à un réchauffement équatorial beaucoup plus important que celui observé dans les modèles.

L’un des résultats les plus insidieux de l’hypothèse que le changement de la température de l’équateur au pôle est une conséquence automatique du réchauffement climatique a été l’affirmation selon laquelle les données du paléoclimat impliquent une sensibilité climatique très élevée. Un traitement simpliste (schématique) des contributions séparées de l’effet de serre et des changements produits dynamiquement de la différence de température de l’équateur au pôle à la température moyenne mondiale illustre ce problème. La Figure 2 illustre la situation où x = sin (φ), φ latitude, x1 est l’étendue méridionale de la circulation de Hadley qui homogénéise efficacement horizontalement la température tropicale [10], les tropiques et la différence de température δT2 équateur-pôle.

Capture d’écran 2020-06-25 à 16.09.25

Notez que ΔT1 est le réchauffement des tropiques, tandis que Δ(δT2) est le changement de la différence de température de l’équateur au pôle. Alors que ΔT1 reflète la sensibilité au forçage et aux rétroactions de serre (c’est-à-dire radiatives), Δ(δT2) n’en a pas besoin, surtout lorsque ce dernier facteur est beaucoup plus grand que le premier. Toutes les tentatives d’estimation de la sensibilité au climat à partir des données paléo (du moins pour autant que je sache) ne parviennent pas à distinguer les deux et à attribuer les deux contributions au forçage à effet de serre dans l’estimation de la sensibilité au climat. Cela pourrait être une erreur majeure.

Capture d’écran 2020-06-25 à 16.11.21.png

Par exemple, en l’absence de forçage à effet de serre, ΔT1 pourrait être nul, alors qu’il pourrait toujours y avoir une contribution de Δ(δT2), ce qui conduirait bien sûr à un changement de la température moyenne mondiale. Ceci, à son tour, conduirait à la fausse conclusion que la sensibilité était infinie. Plus réaliste encore, si la sensibilité du climat au forçage radiatif était très faible, les contributions de Δ(δT2) pourraient encore conduire à conclure à tort que la sensibilité était grande [8].

Remarques finales

Comme indiqué dans la Section 2, il est peu plausible qu’un système aussi complexe que le système climatique avec de nombreux degrés de liberté soit résumé de manière significative par une seule variable (anomalie de la température moyenne mondiale) et déterminé par un seul facteur (le niveau de CO2 dans l’atmosphère). À titre d’exemple, nous avons montré dans la Section 4, que la physique différente associée aux températures tropicales (c’est-à-dire le forçage radiatif, y compris les rétroactions radiatives) et à la différence de température équateur-pôle (c’est-à-dire le transport hydrodynamique via les instabilités barocliniques) entraîne toutes deux des changements dans la température moyenne mondiale. Cependant, cela ne signifie pas que les changements de la température moyenne mondiale provoquent des changements dans la différence de température de l’équateur au pôle. Ce bref article s’est concentré sur un seul exemple de cas où l’hypothèse d’un contrôle à variable unique peut conduire à un résultat erroné. Cependant, la question de la sensibilité, même lorsqu’elle est limitée au rayonnement, est encore sujette à de nombreuses possibilités, et il y a de bonnes raisons de supposer que la composante radiative de la sensibilité est, elle-même, exagérée dans la plupart des modèles actuels. Une discussion séparée de cette question peut être trouvée dans Lindzen [22].

Fait intéressant, même ceux d’entre nous qui rejettent l’alarme climatique (y compris moi) se sont concentrés sur l’image de la serre malgré le fait que cela ne soit pas le facteur majeur du changement climatique historique (sauf, dans le cas, d’une faible sensibilité, pour expliquer la stabilité des températures équatoriales). C’est-à-dire que nous avons accepté la prémisse de base de l’image conventionnelle : à savoir que tous les changements de température moyenne mondiale sont dus au forçage radiatif. Bien que la compréhension de ce récit soit un élément crucial dans une bataille politique, il ne devrait pas être autorisé d’ignorer le raisonnement scientifique.

Article de Richard S. Lindzen paru le 3 juin 2020 dans The European Physical Journal Plus ( https://doi.org/10.1140/epjp/s13360-020-00471-z ) aimablement communiqué par l’auteur sur ma demande. Je l’ai informé de la traduction en français avant de la faire figurer sur mon blog.

Références

  1. A. Abe-Ouchi, F. Saito, K. Kawamura et al., Insolation-driven 100,000-year glacial cycles and hysteresis of ice-sheet volume. Nature 500, 190–193 (2013). https://doi.org/10.1038/nature12374
  2. E.J. Barron, W.M. Washington, Warm cretaceous climates: high atmospheric CO2 as a plausible mech- anism in the carbon cycle and atmospheric CO2, in Natural Variations Archean to Present, ed. by E.T. Sundquist, W.S. Broecker (American Geophysical Union, Washington, 1985). https://doi.org/10.1029/ GM032p0546
  3. J.S.Boyle,UpperlevelatmosphericstationarywavesinthetwentiethcenturyclimateoftheIntergovern- mental Panel on Climate Change simulations. J. Geophys. Res. 111, D14101 (2006). https://doi.org/10.1 029/2005JD006612
  4. J.S.Callendar,Theartificialproductionofcarbondioxideanditsinfluenceontemperature.Proc.R.Met. Soc. (1938). https://doi.org/10.1002/qj.49706427503
  5. CLIMAP Project Members, The surface of the ice-age earth. Science 191(4232), 1131–1137 (1976). https://doi.org/10.1126/science.191.4232.1131
  6. R.S.Edvardsson,K.G.Karlsson,M.Engholmoe,Accuratespinaxesandsolarsystemdynamics:climatic variations for the Earth and Mars. Astron. Astrophys. 384, 689–701 (2002). https://doi.org/10.1051/000 4-6361:20020029
  7. A. Ganopolski, V. Brovkin, Simulation of climate, ice sheets and CO2 evolution during the last four glacial cycles with an Earth system model of intermediate complexity. Clim Past 13, 1695–1716 (2017)
  8. G. Genthon, J.M. Barnola, D. Raynaud, C. Lorius, J. Jouzel, N.I. Barkov, Y.S. Korotkevich, V.M. Kotlyakov, Vostok ice core: climatic response to CO2 and orbital forcing changes over the last climatic

    cycle. Nature 329, 414–418 (1987)

  9. I.M.Held,M.Suarez,Atwo-levelprimitiveequationatmosphericmodeldesignedforclimaticsensitivity

    experiments. J. Atmos. Sci. 35, 206–229 (1978)

  10. I.M.Held,A.Y.Hou,Nonlinearaxiallysymmetriccirculationsinanearlyinviscidatmosphere.J.Atmos.

    Sci. (1980). https://doi.org/10.1175/1520-0469(1980)037%3c0515:nascia%3e2.0.co;2

  11. M.Holland,C.M.Bitz,Polaramplificationofclimatechangeincoupledmodels.Clim.Dyn.21,221–232

    (2003). https://doi.org/10.1007/s00382-003-0332-6

  12. J.R.Holton,G.J.Hakim,AnIntroductiontoDynamicMeteorology(AcademicPress,Cambridge,2012),

    p. 552

  13. M.Huber,L.C.Sloan,Warmclimatetransitions:ageneralcirculationmodelingstudyoftheLatePale-

    ocene thermal maximum (about 56 Ma). J. Geophys. Res. Atmos. 104, 16633–16655 (1999). https://doi.

    org/10.1029/1999JD900272

  14. J.Imbrie,K.P.Imbrie,IceAges:SolvingtheMystery(Macmillan,London,1979),p.244
  15. IPCCAR5-Box5.1(2013),https://www.ipcc.ch/report/ar5/wg1/
  16. IPCCSR15(2018),https://www.ipcc.ch/site/assets/uploads/sites/2/2019/06/SR15_Headline-statements.

pdf

  1. M. Jansen, R. Ferarri, equilibration of an atmosphere by adiabatic eddy fluxes. J. Atmos. Sci. (2013).

    https://doi.org/10.1175/JAS-D-13-013.1

  2. M.I.Lee,M.J.Suarez,I.S.Kang,I.M.A.Held,D.Kim,Amoistbenchmarkcalculationfortheatmospheric general circulation models. J. Clim. 21, 4934–4954 (2008). https://doi.org/10.1175/2008jcli1891.1
  3. R.S.Lindzen,B.Farrell,Theroleofpolarregionsinglobalclimate,andtheparameterizationofglobal

    heat transport. Mon. Weather Rev. 108, 2064–2079 (1980)

  4. Lindzen,R.S.(1990).DynamicsinAtmosphericPhysics,CambridgeUniv.Press,324pages
  5. R.S.Lindzen,M.-D.Chou,A.Y.Hou,DoestheEarthhaveanadaptiveinfrarediris?Bull.Am.Meteorol.

    Soc. 82(3), 417–432 (2001)

  6. Lindzen, R.S. (2019), http://co2coalition.org/wp-content/uploads/2019/12/Lindzen_On-Climate-

    Sensitivity.pdf

  7. M.Milankovitch,KanonderErdbestrahlungundseineAndwendungaufdasEiszeiten-problem(R.Ser- bian Acad, Belgrade, 1941)
  8. R.E. Newell, J.W. Kidson, D.G. Vincent, G.J. Boer, The Circulation of the Tropical Atmosphere and Interactions with Extratropical Latitudes, vol. 1 (M.I.T. Press, Cambridge, 1972)
  9. P.N. Pearson, B.E. van Dongen, C.J. Nicholas, R.D. Pancost, S. Schouten, J.M. Singano, B.S. Wade, Stable warm tropical climate through the Eocene Epoch. Geology 35(3), 211–214 (2007). https://doi.org/ 10.1130/G23175A.1
  10. J.Pedlosky,GeophysicalFluidDynamics(Springer,Berlin,1992),p.710
  11. R.L.Pfeffer(ed.),DynamicsofClimate:TheProceedingsofaConferenceontheApplicationofNumerical

    Integration Techniques to the Problem of the General Circulation held October 26–28, 1955 (Pergamon

    Press, Oxford, 1960), p. 154

  12. G.Roe,IndefenseofMilankovitch.Geophys.Res.Lett.(2006).https://doi.org/10.1029/2006GL027817
  13. R. Rondanelli, R.S. Lindzen, Can thin cirrus clouds in the tropics provide a solution to the faint young

    Sun paradox? J. Geophys. Res. 115, D02108 (2010). https://doi.org/10.1029/2009JD012050

  14. W.F.Ruddiman,Ice-drivenCO2feedbackonicevolume.Clim.Past2,43–55(2006)
  15. C. Sagan, G. Mullen, Earth and Mars: evolution of atmospheres and surface temperatures. Science

    177(4043), 52–56 (1972)

  16. N.Shackleton,A.Boersma,TheclimateoftheEoceneocean.J.Geol.Soc.Lond.138,153–157(1981)
  17. K.E. Trenberth, J.T. Fasullo, J. Kiehl, Earth’s global energy budget. Bull. Am. Meteorol. Soc. 90(3),

    311–323 (2009). https://doi.org/10.1029/GM032p0546

 

Virus ou climat qu’à cela ne tienne : viva la revolucion !

Un grave dilemme va éclater à la face des écologistes en ces temps troublés par la grippe coronavirale qui n’aura finalement tué même pas plus que la grippe asiatique (H2N2, 1957-58) qui fit à elle seule plus de deux millions et demi de victimes dans le monde dont 40000 en France. Pourtant les décisions totalement injustifiées des politiciens vendus à la cause des hommes de Davos et teintés des thèses malthusiennes du Club de Rome ont tout fait pour détruire les économies occidentales dont en particulier celles des principaux pays européens comme la France, l’Italie, l’Espagne et la Belgique. La solidarité européenne aura été admirablement absente et l’heure des comptes arrivera.

Pendant ce temps il ne fallait surtout pas oublier le « changement » du climat qui est toujours présent dans les esprits dérangés de ces écologistes qui ont osé prétendre que l’apparition de ce nouveau virus était une conséquence directe du changement climatique provoqué par l’activité humaine. Et si ce virus tue quelques personnes le changement climatique en tuera beaucoup plus si « on » ne fait rien. Et destruction de la biodiversité aidant ce sera carrément l’apocalypse. Ces mêmes pseudo-intellectuels, pour la grande majorité d’entre eux sont des crypto-gauchistes en mal d’idéal, se félicitent de constater que l’air est devenu plus « pur » dans les grandes villes, que le ciel a retrouvé sa couleur bleue d’antan et qu’il serait temps de retourner vivre dans des grottes infestées de chauve-souris, un comble ! Plus de voitures, plus d’avions, plus de bateaux : c’est bon pour le climat. Ben voyons …

Alors que tous les pays comptent leurs morts ces écolos osent en rajouter une couche pour clamer que dans la foulée de l’épidémie il serait bon de ne plus utiliser sa voiture, ne plus voyager en avion pour quelque prétexte que ce soit puisque les gouvernements ont pris des mesures pour habituer les populations à ce nouveau « style de vie » et d’aller vivre dans des cavernes comme nos lointains ancêtres tout en restant connecté à internet pour diffuser cette propagande pour le moins douteuse relative à « la crise climatique » qui fait les choux-gras de toute une série de sites écolo-gauchistes qui ainsi s’attirent des « like », de l’audience ! En effet, si on n’a pas de likes sur son site on est donc dissident et à la limite qualifié de fasciste, voire de négationniste, surtout quand on parle de climat et encore plus quand on cite des données dérangeantes relatives au nombre de morts des pandémies récentes comme la grippe de Hong-Kong ou la grippe asiatique. C’est surprenant comme ces mêmes écolos et ces mêmes politiciens ont a mémoire courte. Ça s’explique très simplement. Main dans la main ces monstres veulent asservir les populations pour poursuivre leur dessein de soumission afin de sauver le climat en organisant un essai en grandeur nature par le truchement du blocage total des économies occidentales. C’est à peu près la seule explication que j’ai pu trouver pour justifier ce confinement généralisé.

Ces idéologues n’ont pas imaginé un instant que le peuple, le bas peuple, les insignifiants, vêtus de gilets jaunes en France, en ont assez de souffrir, de payer des impôts démesurés qui sont dépensés par les gouvernements pour des résultats médiocres et en plus de payer des taxes pour sauver le climat. Cela suffit ! Ces « sans-dents » vont se révolter. Si les 15 millions de retraités français se retrouvent dans mon cas avec une diminution de 16 % de leur pension de retraite – oui j’ai constaté ce problème en consultant par hasard mon compte en banque ce mercredi matin – alors ils se joindront à ces sans-dents qui ont tous des problèmes pour finir leurs fins de mois.

Viva la revolucion !

La grande famine de 1876-1878

Capture d’écran 2020-04-13 à 12.02.14.png

De 1876 à 1878, la « Grande Famine » a tué entre 30 et 60 millions de personnes dans le monde. La sécheresse a affecté une grande partie de la planète, provoquant des pénuries alimentaires du Brésil à l’Inde et à la Chine, et anéantissant environ 3% de la population mondiale.

La climatologue Deepti Singh de l’Observatoire de la Terre Lamont-Doherty de l’Université Columbia (elle est maintenant à l’Université de Vancouver) se souvient d’avoir lu des articles au sujet la dévastation des sécheresses et de se demander: « Qu’est-ce qui pourrait avoir provoqué quelque chose comme celle de 1876-1878 ? Et quelle est la probabilité que cela se reproduise dans les prochaines décennies ? « 

Elle et ses collègues quantifient l’étendue et la gravité de cette sécheresse mondiale et tentent de découvrir ce qui l’a rendue si grave. Elle a présenté les recherches il y a quelques jours lors de la réunion de l’American Geophysical Union (AGU) à la Nouvelle-Orléans, en Louisiane.

La Grande Famine a été « sans doute la pire catastrophe environnementale jamais survenue à l’humanité », note l’équipe dans un prochain article. Ce phénomène «a contribué à créer les inégalités mondiales qui seraient plus tard qualifiées de « monde développé » et de « tiers monde ».» Il est donc important de comprendre les forces motrices de la sécheresse, dit Singh, car elles pourraient frapper à nouveau à tout moment – peut-être pire que jamais, car les températures actuelles plus chaudes que celles sévissant durant le petit âge glaciaire du XIXe siècle rendraient les sécheresses plus intenses.

Les scientifiques soupçonnent depuis longtemps qu’El Niño est en partie responsable de la famine mondiale. Poussé par les températures de l’océan Pacifique équatorial, El Niño est un modèle climatique qui s’accompagne souvent de conditions chaudes et sèches en Inde, en Australie et en Amérique du Sud. Dans leur article (qui n’a pas encore été publié), Singh et ses collègues fournissent certaines des premières preuves quantitatives que cette catastrophe environnementale a probablement été provoquée par le plus fort El Niño que les instruments humains aient jamais mesuré. Ils trouvent également que d’autres conditions record ont peut-être été en jeu.

Un problème global

Pour savoir exactement où, quand et pendant combien de temps les sécheresses se sont produites, ainsi que leur gravité, les chercheurs se sont tournés vers des atlas de la sécheresse basés sur les cernes de croissance des arbres. Les cernes des arbres deviennent plus épais pendant les années humides, de sorte que les vieux arbres peuvent fournir une histoire des conditions climatiques passées. Edward Cook, co-auteur et directeur du Columbia Ring Tree Lab, a développé trois des atlas utilisés dans le document. Les données du pluviomètre, dont certaines remontent à 175 ans, ont également indiqué la rareté de l’eau au moment de la sécheresse.

Les résultats de l’équipe suggèrent que les sécheresses de 1876-78 se sont étendues bien au-delà du Brésil, de l’Inde et de la Chine, bien que ce soit là que la famine ait frappé le plus durement. La recherche a révélé des preuves de conditions sèches en Égypte, au Maroc, en Australie et même dans le sud-ouest et l’est de l’Amérique du Nord. Les cernes des arbres suggéraient que la sécheresse en Asie était la pire depuis 800 ans ou plus.

Capture d’écran 2020-04-13 à 12.02.55.png

Prélude au désastre

Pour découvrir ce qui a rendu les conditions si sévères, les chercheurs ont examiné les données sur la température de la surface de la mer recueillies par les marins depuis les années 1870.

Les températures à la surface de la mer ont confirmé qu’il y avait en effet un El Niño intense qui a persisté pendant la majeure partie des deux années de la Grande Famine (1877-1878). Mais l’extrême El Niño peut avoir été amorcé par les eaux plus froides du Pacifique tropical central de 1870 à 1876. Cette période de fraîcheur prolongée – la plus longue jamais enregistrée – a peut-être conduit à une immense accumulation d’eau chaude dans le Pacifique tropical occidental. Cela s’est terminé par un fort événement La Niña en 1875-1876. La Niña a déclenché des conditions sèches en Inde, au Mexique et dans le sud-ouest des États-Unis, puis s’est déversée dans un fort El Niño, ce qui a entraîné plus de sécheresse sur une grande partie du globe.

« C’est comme un pendule », explique Singh. « Si vous continuez à le pousser dans une direction, de plus en plus loin du centre, puis à le relâcher, il ira à l’extrême dans l’autre direction.« 

Complices océaniques

El Niño n’a pas travaillé seul pour générer la Grande Famine. Singh et ses collègues ont également trouvé des preuves de conditions exceptionnelles dans les océans Atlantique et Indien.

En 1877, l’océan Indien a connu des températures exceptionnellement chaudes, en particulier dans sa partie ouest, générant un dipôle dans les températures de surface de la mer. Ces conditions contrastées dans l’océan Indien peuvent souvent conduire à des conditions sèches en Australie et en Afrique du Sud. Mais en 1877, le contraste thermique entre les deux moitiés était le plus fort jamais enregistré avant, ce qui a probablement aidé El Niño à générer de graves sécheresses dans ces régions.

En 1877 et 1878, l’Atlantique Nord a été le plus chaud qu’il n’ait jamais été, selon des données remontant aux années 1850. Cela a peut-être poussé les vents atmosphériques porteurs d’humidité vers le nord, loin du Nordeste brésilien, qui a perdu deux millions de vies pendant la famine qui a suivi.

Les scientifiques ne s’entendent pas sur la question de savoir si El Niño aurait pu déclencher ces effets dans les océans Atlantique et Indien. Ce n’est peut-être que par malchance que des conditions extrêmes se sont produites dans les trois océans à la fois. Mais les océans sont tous connectés, et Singh et ses collègues soupçonnent El Niño de déclencher une cascade d’effets. »Il est difficile de penser que tout cela était une coïncidence« , dit Singh.

Regard vers l’avenir

Dans l’ensemble, l’équipe conclut qu’une multitude de conditions record – un El Niño intense et durable, probablement amorcé par un Pacifique frais et exacerbé par un Atlantique chaud et de forts contrastes thermiques dans l’océan Indien – combinés dans un synchronisme qui a provoqué la Grande Famine. Et cela pourrait se reproduire.

Étant donné que les conditions qui ont préparé la Grande Famine sont dues aux variations climatiques naturelles, rien n’empêche une sécheresse mondiale de se reproduire. Si ces conditions devaient se reproduire, elles pourraient à nouveau mettre en danger la sécurité alimentaire mondiale.

En fait, cela pourrait être pire la prochaine fois. Alors que le thermostat mondial augmente – réchauffement climatique oblige – les températures plus chaudes pourraient aggraver les futures sécheresses, explique Singh.

Ensuite, elle et ses collègues espèrent savoir à quelle fréquence de tels événements pourraient se produire à l’avenir, à quel point ils pourraient être graves et quels pays seraient les plus touchés. Comprendre ce qui a causé la sécheresse mondiale pourrait aider à prévoir et à préparer la prochaine, dans l’espoir qu’elle ne déclenchera pas une autre famine mondiale.

L’étude est actuellement en préparation pour être soumise à une revue à comité de lecture. D’autres auteurs incluent Richard Seager, Benjamin I Cook, Mark Cane et Mingfang Ting du Lamont-Doherty Earth Observatory, et Michael Davis de l’Université de Californie à Riverside.

Source : AGU

Être climato-réaliste est une vraie mission (épisode 3) : évolution du climat depuis 20000 ans

Capture d’écran 2019-01-30 à 20.59.41.png

Les paléoanthropologues ont acquis une bonne connaissance des fluctuations des populations de l’Homo sapiens au cours des années précédant la dernière grande glaciation qui provoqua une baisse du niveau des océans de plus de 120 mètres. La Grande-Bretagne actuelle n’était pas une île et de nombreux archipels sud-asiatiques étaient reliés aux autres par de la terre ferme. La Mer rouge était en partie découverte et le détroit de Gibraltar, parsemé d’îlots favorisa des mouvements de population de l’Afrique vers la péninsule ibérique. Si la glaciation recouvrait une grande partie de l’Europe il ne faisait pas toujours très froid. Parfois des périodes de réchauffement permirent à nos ancêtres de remonter vers le nord ou inversement être obligés de se déplacer vers le sud et ces mouvements de populations ont été relativement bien documentés notamment dans le sud-ouest de la France. La disparition de la grande faune représentée par les mammouths laineux ou les panthères à dents de sabre fut provoquée par des épisodes brutaux de refroidissement qui privèrent les mammouths de nourriture et les panthères de gibier. Il faut reconnaître qu’un mammouth était contraint de manger plus de 50 kilos d’herbe chaque jour pour survivre et si l’enneigement était trop abondant il n’avait pas d’autre choix que de mourir. Des esprits chagrins ont attribué à tort la disparition des mammouths à la prédation des hommes, ce qui est totalement faux.

Comme l’indique cette illustration, captée d’une conférence dont j’ai égaré la référence, jusqu’à la fin du Dryas récent (8000 ans avant l’ère commune) il y eut donc de nombreux épisodes de « réchauffement » brutaux mais brefs sans que jamais les calottes glaciaires recouvrant la majeure partie de l’Amérique du nord et de l’Europe fondent significativement. Puis cette période climatique prit fin au cours d’un réchauffement brutal qui dura environ 500 ans et provoqua un retrait des glaciers comme en France celui recouvrant la majeur partie du Massif Central et du Jura. Ce changement du climat coïncida avec l’apparition de l’agriculture, la sédentarisation des groupes humains et ce que la Bible appela le Déluge. Le détroit des Dardanelles avait été longtemps à sec et le niveau de la Mer Noire, un lac fermé, avait baissé à tel point que des humains s’étaient installé dans des zones aujourd’hui submergées lors de la remontée du niveau des océans. Il est opportun de rappeler ici que lors d’une période très froide les épisodes de sécheresse prolongée étaient fréquents en raison de la rareté des pluies. C’est ce type de situation redoutable qui pourrait sévir au cours des prochaines décennies. Ce graphique est issu des carottages glaciaires dans le centre du Groenland.

À partir de 10000 ans avant l’ère commune il semble que le climat se stabilise mais il est utile de « zoomer » sur cette période qui appelle divers commentaires. Vers 2800 avant l’ère commune (moins 4500 ans dans le graphique) il y eut un changement brutal du climat qui eut des conséquences dramatiques provoquant la chute de l’empire égyptien ancien et une désertification du Sahara. Mais revenons au tracé de l’évolution des températures à la surface du sommet de la calotte glaciaire du Groenland au cours du temps depuis la fin du Dryas récent jusqu’à aujourd’hui. Les « réchauffements » aussi appelés optima climatiques : Minoïen, Romain, Médiéval et Contemporain, favorisèrent l’apogée de la civilisation minoïenne et de la civilisation néo-assyrienne (j’y reviendrai ci-dessous), puis de l’Empire romain, puis aux XIe et XIIe siècles l’optimum médiéval qui a favorisé le doublement de la population européenne et la construction des cathédrales et enfin l’optimum moderne (1920-1990) qui vit un accroissement jamais atteint de la population humaine et une diversification technologique sans précédent dans l’histoire de l’humanité.

L’optimum climatique minoïen favorisa le développement de l’empire crétois qui rayonna sur l’ensemble de la Méditerranée entre les années 1800 et 1600 avant l’ère présente. Il s’agissait d’un empire de marchands qui dominait le commerce entre l’Orient et les pays bordant la partie ouest de la Méditerranée, pour faire court. Si l’explosion cataclysmique du Santorin en 1650 avant l’ère présente n’avait pas eu lieu, explosion suivie d’un d’un tremblement de terre créant un gigantesque tsunami qui détruisit la plupart des grandes villes de Crète, la disparition de cet empire aurait fini par avoir eu lieu en raison du refroidissement du climat qui provoqua des sécheresses et par conséquent des famines plus destructrices encore que le tremblement de terre, exactement comme la disparition de l’empire égyptien ancien. Ce refroidissement du climat qui dura près de 1000 ans provoqua ensuite l’effondrement de l’empire néo-assyrien dont la principale ville était Ninive. Cet empire comprenant l’Irak, la Syrie, l’Egypte et le sud-est de la Turquie d’aujourd’hui était très dépendant de ses ressources agricoles, elles-mêmes tributaires de la pluviométrie. Or qui dit refroidissement sous-entend aussi une plus faible évaporation des océans et des mers et donc moins de précipitations. L’empire, pour faire bref encore, se désagrégea, fragilisé par des périodes de disette répétées.

Pourquoi de telles disparités dans l’évolution du climat ont-elles toujours existé, à des échelles de temps longues ou plus en détail des changements qualifiés de discrets à l’échelle géologique ? Les climatologues se perdent en conjectures. Il semble qu’il y ait une périodicité approximative de 1000 ans décrivant ces optima climatiques mais quelle en est la raison ? Première réponse évidente en examinant le graphique ci-dessus l’effet d’une quelconque augmentation de la teneur en CO2 atmosphérique est à exclure puisque le charbon et le pétrole étaient inconnus. Il n’y avait donc aucune intervention humaine dans l’évolution du climat.

Il fa ut échafauder des hypothèses comme les oscillations multidécadales des océans qui sont encore très largement inexpliquées. La seule tentative d’explication de ces fluctuations du climat qui paraissent erratiques est la modélisation de la variation de l’activité magnétique du Soleil réalisée par la mathématicienne Valentina Zharkova de l’Université de Northumbria. Pour plus de détail voir sur ce blog le billet du 31 octobre 2015 précisant les propos du billet de ce blog du 5 septembre 2015. Si l’incidence de l’irradiance solaire totale ne change en apparence que très peu il s’avère néanmoins que cette infime variation – de quelques fractions de watt/m2 – peut avoir un effet global non nul sur le climat. La prouesse mathématique réalisée par Madame Zharkova et ses collaborateurs montre que, contrairement à tous les modèles présentés par l’IPCC, son modèle de prédiction de l’évolution de l’activité solaire est aussi valable en « remontant dans le temps ». Ces prédictions expliquent clairement le « petit âge glaciaire » ainsi que l’optimum climatique médiéval alors qu’aucun des modèles, aussi fameux soient-ils, émanant de l’IPCC ne peuvent être extrapolés vers le passé. Ils sont donc purement spéculatifs voire fantaisistes. Il apparaît donc que les variations du climat terrestre seraient liées aux seules variations de l’activité magnétique du Soleil. Le lien de cause à effet est malheureusement, dans l’état actuel des connaissances, difficile à établir clairement.

Suite dans un prochain billet.

https://wattsupwiththat.com/2016/07/31/a-warm-period-by-any-other-name-the-climatic-optimum/

https://arxiv.org/pdf/1804.01302.pdf

L’activité solaire et le régime des moussons en Asie

Une nouvelle preuve du rôle de l’activité solaire sur le climat, en particulier de la mousson asiatique, vient d’être magistralement démontrée par une équipe de scientifiques spécialisés dans la paléoclimatologie sous la direction du Docteur Kathleen Johnson de l’Université de Californie à Irvine. Pour remonter dans le temps afin de reconstituer le climat passé l’un des matériel de choix est l’étude des signatures isotopiques des spéléothèmes c’est-à-dire des concrétions calcaires trouvées dans les grottes. Parmi de nombreux échantillons prélevés au Laos, une stalactite – le spéléothème (illustration) descendant du plafond d’une grotte – provenant de la grotte de Tham Doun Mai dans la province de Luang Prabang a livré les secrets de l’évolution du climat essentiel dans cette région de l’Asie. La mousson est en effet vitale depuis le Pakistan jusqu’à la Chine pour plus du tiers de l’humanité et tenter d’identifier les facteurs externes qui influent sur celle-ci est de la plus haute importance. Comme pour les cernes des arbres les stalactites s’allongent par couches successives et pour dater précisément ces couches il faut utiliser, dans la profondeur de la concrétion et non pas à sa surface, la datation par la mesure du thorium-230 apparu lors de la désintégration de l’uranium-234 immobilisé à un temps t et cette calibration est parfaitement documentée et d’une extrême précision (figure b) :

Capture d’écran 2019-09-01 à 10.24.25.png

Les « stries » de la concrétion sont examinées au microscope et un exemple de datation est représenté dans la partie a de la figure ci-dessus. Ensuite il est nécessaire de réaliser un comptage des stries d’accumulation de calcite année après année et d’analyser les teneurs isotopique de chaque strie respectivement en oxygène-18 et en carbone-13. Voici une image représentative de ces stries :

Capture d’écran 2019-09-01 à 10.31.28.png

Cette image a été obtenue par microscopie en fluorescence à l’aide de rayons X émis par un synchrotron. Cette fluorescence permet de déterminer la teneur en oxygène-18 du spéléothème. Les traits de couleur représentent des séries successives de moussons.

Les deux « proxys » mentionnés permettent de reconstituer la pluviométrie et la température. L’oxygène-18 est plus lourd que l’oxygène-16 et plus la température est élevée plus d’eau « lourde », c’est-à-dire contenant au moins un atome d’oxygène-18, s’évaporera de l’océan pour former ensuite des nuages qui se transformeront en pluie au cours de la mousson. Il est alors possible de déterminer le δ18O et sa déviation par rapport à une valeur standard internationalement admise calibrée sur les teneurs en O-18 de foraminifères appelés Belemnites. L’autre proxy est le carbone-13. Comme pour tout processus biologique la nature a bien fait les choses et les plantes ont plutôt tendance à absorber du CO2 « léger », c’est moins coûteux en énergie, mais si les conditions de température et de pluviométrie sont favorables ces plantes assimilent aussi de plus en plus de CO2 « lourd », c’est-à-dire que le δ13C va avoir tendance à diminuer par rapport à une valeur de référence standard admise internationalement et également établie à l’aide de foraminifères.

Enfin pour tenter de relier toutes les données recueillies à l’activité solaire il existe un autre proxy parfaitement bien documenté provenant des carottes glaciaires. Il s’agit du béryllium-10 radioactif formé par spallation cosmique par bombardement de l’azote par les rayons cosmiques. Plus il y a de béryllium plus l’activé solaire est faible. Forte de toutes ces données l’équipe du Docteur Johnson a pu établir une corrélation étroite entre l’intensité des moussons et l’activité solaire. Les tracés en noir des figures suivantes (extraits de la figure S5 de l’article cité en référence) sont respectivement les δ18O et δ13C exprimés en ‰ par rapport aux standards internationaux VPDB (Vienna Pee Dee Belemnite). Comme le constatent les auteurs de cette étude il existe une forte corrélation entre l’activité solaire et l’abondance des pluies elle-même liée à la température de surface de l’Océan Indien.

Capture d’écran 2019-09-02 à 11.40.04.png

En ce qui concerne le δ13C la situation est moins claire car des effets locaux peuvent perturber la percolation des eaux chargées en carbonate dans le massif karstique où se trouve la grotte. Que mes lecteurs ne se méprennent pas au sujet de ces deux figures. En effet, les teneurs en béryllium sont inversées dans le cas du δ18O pour mieux faire apparaître l’activité solaire. Il ne s’agit pas d’un artifice mais comme mentionné plus haut la présence de béryllium-10 est inversement proportionnelle à l’activité solaire.

Capture d’écran 2019-09-02 à 11.40.27.png

Les deux minima de mousson (1400-1510) et (1645-1715) correspondent respectivement aux deux minima d’activité solaire appellés minimum de Spörer et de Maunder.

Il ne faut pas établir de conclusions trop rapidement car la mousson dépend des oscillations de l’Océan Indien et des oscillations australes de l’Océan Pacifique dont dépend aussi le phénomène météorologique El Nino (ENSO) qui elles-mêmes dépendent de l’activité solaire. La situation est donc plutôt complexe mais on ne peut que constater une bonne corrélation entre cette activité solaire et l’abondance de la mousson d’Asie, un nouvel argument en faveur de la dépendance des variations du climat de l’activité solaire.

Source et illustrations : doi 10.1016/j.epsl.2019.115737 aimablement communiqué par le Docteur Johnson qui est vivement remerciée ici.

Où les études sur le climat et le monde de la finance se rejoignent : mais pas où on le croirait !

Le 7 novembre 2018 j’avais laissé un billet sur ce blog qui précisait qu’à l’avenir il faudrait non pas se préparer à un réchauffement général du climat mais au contraire à un refroidissement de celui-ci, billet qui avait suscité une cinquantaine de commentaires, ce qui prouve bien que cette affaire de climat préoccupe tous les esprits. Tiraillée en effet entre la propagande officielle et le rappel au réalisme scientifique des spécialistes de cette discipline qu’est la climatologie, je le rappelle une science du passé puisque le climat futur, par définition, n’existe pas encore, l’opinion peine à trouver un repère. Dans ce billet du 7 novembre dernier (lien) les projections que faisait l’auteur auquel je me référais, Norman Page, puisque je ne suis pas du tout spécialiste de cette discipline (la dernière figure de ce billet), m’avaient paru, je dois l’avouer, surprenantes d’exactitude.

Je viens de trouver l’explication de ces prévisions qui émane d’une étude réalisée par un groupe de mathématiciens associés à des météorologistes de l’Université Zhejiang de Hangzhou en Chine. Ils ont appliqué les calculs dits K-line patterns (lien) sur les données climatiques relatives aux températures globales de la surface de la Terre (GLST, global land surface temperatures) telles qu’elles ont été observées depuis 1880. Les calculs prédictifs K-line sont utilisés par les économistes des salles de marché pour prédire l’évolution des cours des valeurs cotées. Il s’agit de fonctions mathématiques reconnaissant et modélisant des évolutions de données brutes pouvant être décrites par des polynômes de fonctions sinusoïdales :

Capture d’écran 2019-01-23 à 19.04.56.png

La modélisation est affinée par le calcul automatique afin de correspondre au mieux aux données expérimentales connues (donc du passé) pour être ensuite appliquées à un futur proche voire plus lointain. Ce type d’approche est bien connu de ceux que le grand public appelle des « traders » car il est inclus dans les algorithmes de prises de décisions qu’ils utilisent quotidiennement à la micro-seconde près pour intervenir sur les marchés. Si j’ai bien compris l’intérêt des K-line patterns l’ordinateur est capable d’ajuster ses calculs en essayant d’adapter puis de modifier en temps réel les paramètres de ces polynômes de calculs de simulation. C’est peut-être ce que l’on appelle l’ « intelligence artificielle » appliquée par l’industrie de la finance puisque la machine « apprend » à affiner ses calculs. En réalité il s’agit d’une perception anthropomorphique du travail de l’ordinateur qui ne peut calculer qu’en utilisant ce dont il dispose et qu’un développeur a introduit dans sa mémoire, ce que l’on appelle pompeusement le « machine learning ».

Les calculs ayant permis de déterminer le polynôme décrivant au mieux la réalité des observations des températures passées a fait appel au filtrage de 15295 fonctions périodiques pour atteindre un coefficient de corrélation de 0,903 ce qui est satisfaisant en regard de la forêt de points expérimentaux utilisés dans cette étude.

Voici le type de fonction numérique utilisée dans ces calculs d’analyse des données brutes de GLST :

Capture d’écran 2019-01-24 à 11.47.14.png

Les mathématiciens de l’Université Zhejiang ont retrouvé les prédictions mentionnées par Norman Page et il est intéressant de commenter le graphique produit par cette équipe avec quelques différences (voir l’illustration en fin de billet) :

Capture d’écran 2019-01-23 à 19.13.38.png

La modélisation ayant été satisfaisante pour les données passées, le modèle a donc été appliqué « vers le futur » exactement comme les spécialistes des marchés financiers le font quotidiennement.

Les températures moyennes de la surface de la Terre vont brutalement chuter mais cette chute va évoluer par vagues jusqu’en 2040, le temps pour les habitants de l’hémisphère nord de s’adapter, en quelque sorte. Ensuite la spéculation reste de mise car nul ne peut prévoir très exactement ce qui se passera au niveau « régional ». Le continent nord-américain qui n’est pas sous l’influence du Gulf Stream subit depuis plusieurs années des hivers particulièrement rigoureux. L’Europe, année après année, endure des hivers que l’homme de la rue qualifie de « pourris » qui vont donc, selon ce modèle, devenir de plus en plus froids mais avec modération car l’inertie thermique de l’Océan Atlantique amortira encore quelque temps cette tendance. Mais pour les Chinois la situation est plus préoccupante car le climat est directement dépendant des oscillations des températures de surface de l’Océan Pacifique.

La modélisation appliquée aux températures passées a été également élargie aux variations de température de surface de cet océan en particulier dans la zone inter-tropicale où apparaît le phénomène El Nino qui affecte temporairement l’ensemble des conditions météorologiques de la planète. L’application de l’analyse mathématique K-line a été appliquée aux phénomènes El Nino passés et elle a mis en évidence un paramètre peu connu de stabilisation du climat par ce que cette équipe a appelé l’ « ocean stabilization machine » qui n’a pas été incluse dans les prédictions issues du calcul K-line.

Capture d’écran 2018-11-06 à 19.05.43 - copie.png

On peut donc rester raisonnablement optimiste car la situation climatique ne changera pas brutalement en raison de l’inertie thermique des océans. Il reste néanmoins à préciser le rôle direct sur le climat des circulations océaniques qui est encore très largement méconnu. Pour l’Océan Atlantique nord il existe des oscillations dont la période est d’environ 60 ans mais dans l’ensemble ce rôle direct des océans sur l’évolution à long terme du climat constitue une discipline à part entière dans la science du climat elle-même très complexe.

Source et illustrations, doi : 10.4236/acs.2019.91009

https://www.hindawi.com/journals/mpe/2017/3096917/ et sur ce blog : https://jacqueshenry.wordpress.com/2018/11/07/le-refroidissement-a-venir-precisions-climatiques-precises-a-lusage-des-decideurs-politiques/

Mais où est passé le réchauffement du climat ? (suite)

Capture d’écran 2018-07-02 à 12.12.22.png

Les Empereurs chinois aimaient les statistiques et tous les évènements du quotidien étaient scrupuleusement consignés sur des registres y compris la date de floraison des pruniers Amygdalus davidiana qui ornaient les jardins et les parcs des alentours des palais et des résidences de l’Empereur disséminés dans la campagne chinoise profonde. Le changement de régime politique en Chine n’a pas effacé cette tradition et deux géographes de l’Université de Pékin ont rassemblé toutes les données relatives à la floraison de cet arbre emblématique que d’aucuns appellent aussi par erreur le cerisier. En établissant une corrélation entre cette date de première floraison et les températures relevées durant la période 1950-1980 il a été possible de remonter dans le temps jusqu’aux années 1740 et le résultat est surprenant.

Capture d’écran 2018-07-02 à 13.32.49.png

Il y a bien eu un refroidissement du climat après 1790 et jusqu’en 1830 alors que les températures étaient plus élevées qu’aujourd’hui entre 1740 et 1790 comme elles l’ont été entre 1930 et 1960 après une stabilisation de près d’un siècle (1830-1930).

Capture d’écran 2018-08-25 à 10.42.26.png

Ce qui ressort de cette étude est assez inattendu : les pruniers fleurissaient en moyenne 4,84 jours plus tôt entre 1740 et 1790 qu’entre 1950 et 1980 et seulement 0,14 jours plus tard durant la période 1790-1830 alors que cette période est communément appelée « petit âge glaciaire ». Certes il s’agit de la Chine continentale et le climat de cette contrée ne peut pas être comparé point par point à celui de l’Europe mais l’étude met en évidence la plus grande sensibilité de la végétation aux températures légèrement plus élevées. À l’aide de la corrélation établie sur la période 1950-1980 entre les dates de floraison et la température relevée il apparaît que durant la période 1741-1790 la température était régulièrement supérieure de 0,48 °C à celle observée entre 1950 et 1980.

La conclusion que l’on peut tirer de cette étude est claire, les optima climatiques ont existé dans un passé récent indépendamment de toute cause d’origine humaine et la présente période « chaude » n’est pas une exception dans l’évolution cyclique du climat.

Source et illustrations : International Journal of Climatology 10.1002/joc.5145

Nouvelles du Japon : à Hokkaido pas de réchauffement du climat depuis … 1989

Capture d’écran 2018-06-06 à 06.54.09.png

La station météorologique de la Japan Meteorological Administration (JMA) située à Rumoi dans le nord de l’île d’ Hokkaido a été déconsidérée en 1990 par l’administration américaine NOAA car elle contredisait les affirmations de réchauffement du climat. C’est dire à quel point la propagande « réchauffiste » a pu conduire à de multiples trucages et à un choix arrangeant des données des stations météo au sol. Ce genre d’attitude est tout simplement déplorable car ce sont 13 des 22 stations météo situées sur l’île qui ont été effacées par la NOAA (National Ocean and Atmosphere Administration).

Le JMA affirme qu’à la station de Rumoi la température moyenne annuelle est restée stable depuis 1990, l’année la plus chaude depuis 1943, record jamais atteint depuis lors. Où est passé le réchauffement tant redouté ?

Source et illustration : blog de Kirye, kiryenet.seesaa.net et https://twitter.com/KiryeNet/status/1003335734068047874

Du jamais vu depuis plus de 70 ans !

Capture d’écran 2018-05-11 à 11.58.14.png

Foi de « Tinerfeniens » – les habitants de l’île de Tenerife – on n’avait jamais vu au milieu du mois de mai la présence de névés sur les pentes exposées au nord du volcan Teide depuis la fin des années 1930 ! Pour les Suisses et les Savoyards il est vrai que le sommet du Teide (3718 m) se trouve bien au delà des neiges éternelles mais ce n’est pas le cas à 28° de latitude nord. Je rappelle ici que le Teide fait partie des 16 volcans de la planète étroitement étudiés et surveillés car ceux-ci se trouvent dans des zone géographiques à fort peuplement. Bien qu’assoupi depuis 1909 le Teide pourrait entrer dans un épisode éruptif tout aussi dévastateur que ceux du Merapi, en ce moment même en éruption, ou du Nyiragongo.

Capture d’écran 2018-05-11 à 12.45.32.png

Illustration : photo prise le 11 mai 2018