Une image simpliste de l’évolution du climat basée sur un seul paramètre peut conduire à des conclusions erronées.

Lindzen©Francisco Guasco-EFE-MAXPPP copie.jpg

Par Richard S. Lindzen, Professeur émérite à l’Alfred P. Sloan Department of Atmospheric Sciences, MIT, Cambridge, Massachusetts

Avant-propos de votre serviteur. J’ai osé imposer à mes lecteurs la laborieuse lecture d’un document scientifique apportant des preuves irréfutables de l’imposture qu’utilisent les pays occidentaux pour justifier des décisions ruineuses pour leur économie afin de sauver le climat. Cette année 2020 sera encore déclarée l’année la plus chaude après le début de l’ère industrielle et c’est tout à fait vrai puisque depuis 1998 la température moyenne globale n’a pas évolué, donc les années à venir resteront les « plus chaudes » jusqu’au refroidissement prévu par les spécialistes dans le domaine du climat. Lindzen démonte la théorie du réchauffement du climat adossée sur un seul facteur, le CO2. Si j’ai pris la peine de traduire son article c’est simplement parce qu’il est compréhensible et qu’il doit être lu et dispersé autour de vous car il est solide et incontestable. Si l’un de mes lecteurs désire contacter Richard Lindzen voici son adresse électronique : rlindzen@mit.edu . Bonne lecture.

Résumé. La nature du système climatique est passée en revue. Ensuite, l’histoire des approches scientifiques des principaux problèmes climatiques est examinée, notant que la centralité de la contribution du dioxyde de carbone est relativement récente et probablement inappropriée pour une grande partie de l’histoire climatique de la Terre. La faiblesse de caractériser le comportement climatique global en utilisant un seul processus physique, le forçage radiatif moyenné à l’échelle mondiale, est illustrée en considérant le rôle d’un processus également bien connu, le transport thermique méridional par des processus hydrodynamiques qui, en changeant la différence de température entre l’Equateur et les pôles, a également un impact sur la température moyenne mondiale.

Introduction. Le tableau actuel de la question du réchauffement climatique présenté au grand public repose sur le fait que le CO2 absorbe et émet dans l’infrarouge, et que son ajout dans l’atmosphère doit donc conduire à un certain réchauffement. En effet, la terre se réchauffe depuis la fin du petit âge glaciaire, et le niveau de CO2 a en effet augmenté, mais cela ne constitue guère une preuve. Cependant, le fait que des modèles informatiques à grande échelle puissent être réalisés pour reproduire le réchauffement avec l’augmentation du CO2 est considéré comme une preuve solide. Au-delà de cela, l’affirmation selon laquelle tout réchauffement indique une catastrophe, surtout si elle est supérieure à l’objectif défini politiquement de + 1,5 °C (dont plus de 1 °C a déjà eu lieu), et exige des réductions importantes de l’utilisation des combustibles fossiles [16] (cf. références en fin de traduction).

Bien qu’il soit souvent noté que le réchauffement par effet de serre est connu depuis longtemps dans la littérature sur le climat, il s’avère que cela n’était généralement pas considéré comme une cause majeure du changement climatique avant les années 1980. Dans cet article, nous présentons une description du système climatique afin de replacer le rôle du réchauffement par effet de serre dans un contexte approprié. Nous examinons ensuite comment le climat était perçu dans la littérature antérieure (ainsi que certains travaux plus récents), et comparons cela avec l’approche actuelle. Il est démontré qu’il existe des raisons substantielles de considérer la présente explication publiquement acceptée comme improbable.

Le système climatique. Ce qui suit est une description totalement non controversée du système climatique.

i. Le cœur du système que nous examinons consiste en deux fluides turbulents, l’atmosphère et les océans, interagissant l’un avec l’autre.

ii. Les deux fluides se trouvent sur une planète en rotation qui est chauffée de manière différentielle par le soleil.

Cela se réfère simplement au fait que le rayonnement solaire est directement incident à l’équateur alors qu’il effleure à peine la terre aux pôles. Le chauffage inégal entraîne la circulation de l’atmosphère et ces mouvements sont responsables du transport méridional de la chaleur.

iii. La composante océanique a des systèmes de circulation avec des échelles de temps allant des années aux millénaires, et ces systèmes transportent la chaleur vers et depuis la surface.

Le forçage de l’océan est complexe. En plus du chauffage différentiel, il y a le forçage par le vent et les injections d’eau douce. En raison de la densité plus élevée de l’eau par rapport à l’air, les circulations sont beaucoup plus lentes dans l’océan et les circulations peuvent avoir de très longues échelles de temps. Le fait que ces circulations transportent la chaleur vers et depuis la surface signifie que la surface n’est jamais en équilibre avec l’espace.

iv. En plus des océans, l’atmosphère interagit avec une surface terrestre extrêmement irrégulière. Le flux d’air est fortement déformé par le passage sur les principales hétérogénéités topographiques et thermiques de la surface qui forment des ondulations à l’échelle planétaire et celles-ci impactent fortement les variations régionales lointaines du climat qui, il s’avère, sont généralement insuffisamment décrites dans les modèles [3].

v. Un constituant essentiel du composant atmosphérique est l’eau dans les phases liquide, solide et vapeur, et les changements de phase ont de vastes ramifications énergétiques. Chacune de ces phases physiques de l’eau a un rôle également extrêmement important.

Le dégagement de chaleur lorsque la vapeur d’eau se condense conduit à la formation de nuages d’orage (appelés cumulonimbus) et ce processus est important. De plus, les nuages sont constitués d’eau sous forme de fines gouttelettes et de glace sous forme de fins cristaux. Normalement, ces fines gouttelettes et cristaux sont suspendus par l’augmentation des courants d’air, mais lorsque ceux-ci deviennent suffisamment gros, ils tombent dans l’air ascendant sous forme de pluie et de neige. Non seulement les énergies impliquées dans les transformations de phase sont importantes, mais le fait est que la vapeur d’eau et les nuages (à base de glace et d’eau) affectent fortement le rayonnement. Les deux substances à effet de serre les plus importantes sont de loin la vapeur d’eau et les nuages. Les nuages sont également d’importants réflecteurs de la lumière solaire. Ces questions sont examinées en détail dans les rapports du GIEC WG1, dont chacun reconnaît ouvertement les nuages comme sources principales d’incertitude dans la modélisation du climat.

vi. Le bilan énergétique de ce système implique l’absorption et la réémission d’environ 240 W / m2. Le doublement du CO2 entraîne une perturbation un peu inférieure à 2% de ce bilan (4 W / m2) [33]. Il en va de même pour les changements dans les nuages et autres fonctionnalités, et ces changements sont courants.

La Terre reçoit environ 340 W / m2 du soleil, mais environ 100 W / m2 est simplement renvoyé dans l’espace à la fois par la surface de la Terre et, plus important encore, par les nuages. Cela laisserait environ 240 W / m2 que la terre devrait réémettre pour établir l’équilibre. Le soleil rayonne dans la partie visible du spectre de rayonnement parce que sa température est d’environ 6000 °K. Si la Terre n’avait pas du tout d’atmosphère (mais à des fins d’argument, si elle réfléchissait toujours 100 W / m2), elle devrait rayonner à une température d’environ 255 °K (- 18 °C), et, à cette température, le rayonnement se trouve principalement dans l’infrarouge.

Bien sûr, la Terre a une atmosphère et des océans, ce qui introduit une multitude de complications. L’évaporation des océans produit de la vapeur d’eau dans l’atmosphère, et la vapeur d’eau absorbe très fortement et émet des rayonnements dans l’infrarouge. La vapeur d’eau empêche essentiellement le rayonnement infrarouge de quitter la surface de la Terre, provoquant le réchauffement de cette surface et (par conduction) de l’air adjacent à la surface, et la convection s’installe. La combinaison des processus radiatifs et convectifs entraîne une diminution de la température avec la hauteur. Pour compliquer les choses, la quantité de vapeur d’eau que l’air peut contenir diminue rapidement à mesure que la température diminue. Au-dessus d’une certaine hauteur, il reste si peu de vapeur d’eau que le rayonnement à ce niveau peut maintenant s’échapper dans l’espace. C’est à ce niveau élevé (environ 5 km) que la température doit être d’environ 255 °K pour équilibrer le rayonnement entrant. Cependant, comme la température diminue avec la hauteur, la surface de la Terre doit maintenant être en fait plus chaude que 255 °K. Il s’avère qu’elle doit être d’environ 288 °K (15 °C, ce qui est en effet la température moyenne de la surface de la Terre). L’ajout d’autres gaz à effet de serre (comme le CO2) augmente encore le niveau d’émission et provoque une augmentation supplémentaire de la température du sol. On estime que le doublement du CO2 équivaut à un forçage d’environ 4 W / m2, ce qui représente un peu moins de 2% des 240 W / m2 entrants nets.

La situation peut en fait être plus compliquée si des nuages de type cirrus de niveau supérieur sont présents. Ce sont des absorbeurs et émetteurs de rayonnement infrarouge très puissants qui bloquent efficacement le rayonnement infrarouge vers le bas. Ainsi, lorsque de tels nuages sont présents au-dessus d’environ 5 km, avec leur sommet à plus de 5 km d’altitude, ils déterminent le niveau d’émission. Cela rend la température du sol (c’est-à-dire l’effet de serre) dépendante de la couverture nuageuse. La quantification de cet effet peut être trouvée dans Rondanelli et Lindzen [29].

De nombreux facteurs, notamment les fluctuations de la zone et de la hauteur moyenne des nuages, la couverture neigeuse, les circulations océaniques, etc… entraînent généralement des modifications du budget radiatif comparables à celles du doublement du CO2. Par exemple, l’effet radiatif moyen global net des nuages est de l’ordre de – 20 W / m2 (effet de refroidissement). Un forçage de 4 W / m2, à partir d’un doublement de CO2, ne correspond donc qu’à une variation de 20% de l’effet net des nuages.

vii. Il est important de noter qu’un tel système fluctuera avec des échelles de temps allant de quelques secondes à des millénaires même en l’absence de forçage explicite autre qu’un Soleil ayant une activité fixe.

Une grande partie de la littérature populaire (des deux côtés du débat sur le climat) suppose que tous les changements doivent être entraînés par un facteur externe. Bien sûr, le système climatique est entraîné par le Soleil, mais même si le forçage solaire était constant, le climat continuerait de varier. De plus, étant donné la nature massive des océans, de telles variations peuvent impliquer des échelles de temps de millénaires plutôt que de millisecondes. El Nino est un exemple relativement court impliquant quelques années, mais la plupart de ces variations temporelles internes sont trop longues pour être même identifiées dans notre système de données instrumentales relativement court. La nature a de nombreux exemples de variabilité autonome, notamment le cycle des taches solaires d’environ 11 ans et les inversions du champ magnétique terrestre tous les deux cent mille ans environ. À cet égard, le système climatique n’est pas différent des autres systèmes naturels, c’est-à-dire qu’il peut présenter une variabilité autonome. Des exemples bien connus comprennent l’oscillation quasi biennale de la stratosphère tropicale, l’oscillation australe El-Nino, l’oscillation multidécennale atlantique et l’oscillation décennale du Pacifique.

viii. Bien sûr, ces systèmes répondent également au forçage externe, mais un tel forçage n’est pas nécessaire pour qu’ils présentent une variabilité.

Se limiter à des questions totalement non controversées signifie que la description ci-dessus n’est pas entièrement complète, mais elle montre l’hétérogénéité, les nombreux degrés de liberté et les nombreuses sources de variabilité du système climatique.

L’évaluation «consensuelle» de ce système est aujourd’hui la suivante : Dans ce système multifactoriel complexe, le climat (qui, lui-même, se compose de nombreuses variables – en particulier la différence de température entre l’équateur et les pôles) est décrit par une seule variable, la variation de la température moyenne mondiale, et est contrôlé par la perturbation de 1 à 2% du budget énergétique due à une seule variable (n’importe quelle variable) parmi de nombreuses variables d’importance comparable. Allons plus loin et désignons le CO2 comme unique contrôle. Bien que nous ne soyons pas sûrs du budget de cette variable, nous savons précisément quelles politiques mettre en œuvre pour la contrôler.

Comment une image aussi naïve a-t-elle pu être acceptée, non seulement par les partisans de ce seul paramètre, mais aussi par la plupart des sceptiques ? Après tout, nous consacrons une grande partie de nos efforts à discuter des relevés des températures mondiales, de la sensibilité au climat, etc… En bref, nous sommes guidés par cette ligne de pensée.

Historique

En fait, ce point de vue sur le climat a été initialement rejeté par de nombreuses personnalités, dont le directeur du Scripps Institute of Oceanography (1), le directeur du Centre européen de prévision météorologique à moyen terme (2), le chef de l’Organisation météorologique mondiale (3), le chef de l’unité de recherche sur le climat de l’Université d’East Anglia (4), l’ancien chef du British Meteorological Office (5), un ancien président de la US National Academy of Science (6), les principaux climatologues soviétiques (7) etc. Même en 1988, lorsque James Hansen a présenté son célèbre témoignage au Sénat américain, Science Magazine a fait état d’un scepticisme généralisé dans la petite communauté des climatologues d’alors. Cependant, tous ces individus appartenaient à une génération plus âgée et beaucoup sont maintenant morts. Entre 1988 et 1994, les choses ont radicalement changé. Aux États-Unis, le financement pour le climat a augmenté d’un facteur d’environ 15. Cela a entraîné une forte augmentation du nombre de personnes intéressées à travailler en tant que « climatologues », et les nouveaux climatologues ont compris que la raison du financement était l’ « alarme de réchauffement climatique ».

En France, dans les années 60, il y avait essentiellement un seul météorologiste théorique, Queney. Aujourd’hui, des centaines sont impliqués dans les modèles sinon la théorie, et cela est largement dû au « réchauffement climatique ». Est-il déraisonnable de se demander si un seul mouvement politique n’a pas réussi à saisir ce domaine scientifique ?

Note. (1) William Nierenberg, (2) Lennard Bengtsson, (3) Askel Wiin-Nielsen, (4) Hubert Lamb, (5) Basil John Mason, (6) Frederick Seitz, (7) Mikhail Budyko, Yuri Izrael et Kiril Kondratiev.

Quelle était la situation auparavant ? Pendant la majeure partie du XXe siècle, le climat était un petit sous-ensemble de petits domaines de la météorologie et de l’océanographie avec des contributions importantes d’une poignée de géologues. Presque aucun grand scientifique travaillant sur des aspects du climat ne s’appelait lui-même «climatologues». En météorologie, l’approche dominante du climat était la météorologie dynamique (bien que l’effet de serre fut bien connu).

Pfeffer [27] fournit un bon exemple de ce qui était considéré comme les problèmes fondamentaux du climat en 1955. Il s’agit des actes d’une conférence qui a eu lieu en 1955 à l’Institut d’études avancées de l’Université de Princeton, où John von Neumann avait commencé la prévision numérique du temps. Les contributeurs à ce volume comprenaient J. Charney, N. Phillips, E. Lorenz, J. Smagorinsky, V. Starr, J. Bjerknes, Y. Mintz, L. Kaplan, A. Eliassen, entre autres (avec une introduction de J. Robert Oppenheimer). Les contributeurs étaient généralement considérés comme les chefs de file de la météorologie théorique. Un seul article traitait du transfert radiatif et ne se concentrait pas sur l’effet de serre, bien que l’augmentation du CO2 soit brièvement mentionnée. Certes, Callendar [4] avait suggéré que l’augmentation du CO2 aurait pu provoquer le réchauffement de 1919 à 1939, mais les principaux météorologues anglais de l’époque, Simpson et Brunt, ont souligné les lacunes de son analyse dans les commentaires qui ont suivi la présentation du papier de Callendar.

Première approche du climat par rapport à la position actuelle

Dans les années 80, avec les progrès de la paléoclimatologie, plusieurs aspects de l’histoire du climat sont apparus avec une clarté accrue. Nous avons commencé à voir plus clairement la nature cyclique des cycles de glaciation du dernier million d’années environ [14]. Des périodes chaudes comme l’Éocène (il y a 50 millions d’années) sont devenues mieux définies [32]. Les données suggèrent que pour les périodes glaciaires et les périodes chaudes, les températures équatoriales ne différaient pas beaucoup des valeurs actuelles, mais la différence de température entre les tropiques et les hautes latitudes variait considérablement. Voici les différences de température:

Capture d’écran 2020-06-25 à 15.30.26.png

Les variations des températures équatoriales étaient beaucoup plus faibles que les différences ci-dessus. Fait intéressant, cependant, les estimations originales étaient que la température équatoriale pendant l’Éocène était un peu plus froide qu’elle ne l’est aujourd’hui [32], tandis que la température équatoriale pendant le dernier maximum glaciaire (LGM) était un peu plus chaude qu’elle ne l’est aujourd’hui. Bien sûr, ce n’est pas ce à quoi on pourrait s’attendre pour le forçage par effet de serre, et des efforts intenses ont été déployés pour « corriger » les températures équatoriales. Aujourd’hui, la température équatoriale de l’Éocène, communément admise, est considérée comme impossible à distinguer de celle d’aujourd’hui [25], tandis que la température équatoriale du LGM est généralement considérée comme étant environ 2 °C plus froide qu’aujourd’hui. En ce qui concerne cette discussion, les changements de température équatoriale sont encore faibles. La situation ci-dessus soulève des questions passionnantes et importantes concernant le climat. Nous allons examiner trois de ces questions.

1. Qu’est-ce qui explique les cycles de glaciation des 700 000 dernières année ?

Milankovitch [23] a avancé très tôt une suggestion intéressante à ce sujet : à savoir que les variations orbitales entraînaient de fortes variations de l’insolation estivale dans l’Arctique, ce qui déterminait si les accumulations de neige hivernales fondaient ou persistaient tout au long de l’été. Imbrie et d’autres ont trouvé une corrélation assez faible entre les pics du forçage orbital et le volume de glace arctique. Cependant, Roe [28] et Edvardsson et al. [6] ont montré que lorsque l’on compare la dérivée temporelle du volume de glace plutôt que le volume de glace lui-même, la corrélation avec l’insolation estivale est excellente. C’est ce qui est montré explicitement dans la figure 1 (tiré de Roe [28]). Cette figure montre le meilleur ajustement des paramètres orbitaux à la dérivée temporelle du volume de glace, et cela est presque identique au paramètre Milankovitch. Notez que l’insolation varie localement d’environ 100 W / m2. Edvardsson et al. [6], a montré que les variations de l’insolation était quantitativement cohérente avec la fonte et la croissance de la glace. Cela semble constituer une preuve solide du bien-fondé de la proposition de Milankovitch. (Note. SPECMAP est l’acronyme du projet de datation des sédiments marins afin de permettre la datation des carottages glaciaires tant au Groenland qu’en Antarctique).

Capture d’écran 2020-06-25 à 15.38.47.png

Il est intéressant de noter comment la position dominante actuelle traite de ce problème (Ruddiman [30], voir aussi Genthon et al. [8]). Aucune mention n’est faite du succès remarquable des efforts indépendants d’Edvardsson et al. [6] et Roe [28]. De plus, Roe a dû inclure une mise en garde que son travail n’avait aucune implication pour le rôle du CO2, afin de pouvoir faire publier son article (communication personnelle).

L’approche officielle actuelle [15] est la suivante : l’insolation estivale arctique est ignorée et au contraire, seule l’insolation moyenne à l’échelle mondiale et annuelle est prise en compte, et celle-ci varie d’environ deux ordres de grandeur de moins que l’insolation estivale de l’Arctique. Un rôle causal du CO2 ne peut pas être revendiqué puisque ces variations (entre 180 et 280 ppmv – correspondant à un changement de forçage radiatif d’environ 1 W / m2) suivent plutôt que précèdent les changements de température. Il est donc soutenu que les variations orbitales « rythment » les cycles de glaciation et que les changements de CO2 qui en résultent fournissent l’amplification nécessaire. Cette interprétation est une conséquence directe du fait de considérer l’insolation globale comme le moteur des changements. En réalité, comme le notent Roe (et Milankovitch), l’Arctique réagit au rayonnement dans l’Arctique, et les changements dans l’Arctique sont beaucoup plus importants que ceux associés à l’insolation moyenne mondiale. Pour être juste, il convient de mentionner que des analyses plus récentes tendent à corroborer cette image plus réaliste de la réponse des hautes latitudes à l’insolation (par exemple Abe-Ouchi et al. [1] ou Ganopolski et Brovkin [7]).

Revenons maintenant aux deux questions restantes. 2. Qu’est-ce qui explique la stabilité des températures tropicales? Les processus radiatifs-convectifs (y compris l’effet de serre) sont généralement considérés comme jouant un rôle majeur dans la détermination de la température tropicale. Le fait que ces températures semblent avoir peu changé dans des régimes climatiques radicalement différents est compatible avec une faible sensibilité au forçage par effet de serre [22]. En effet, il existe des preuves solides qu’il y a environ 2,5 milliards d’années, les températures équatoriales du sol étaient à peu près les mêmes qu’aujourd’hui, malgré une constante solaire inférieure de 20 à 30% à ce qu’elle est aujourd’hui. Sagan et Mullen [31] y ont fait référence sous le nom de « Early Faint Sun Paradox » (paradoxe du soleil faible ancien). La plupart des tentatives pour expliquer cela se sont appuyées sur des niveaux divers gaz à effet de serre, mais, comme l’ont montré Rondanelli et Lindzen [29], il est facilement expliqué par les rétroactions négatives des nuages de cirrus de niveau supérieur, comme cela a été constaté précédemment par Lindzen et al. [21]. 3. Qu’est-ce qui a déterminé les différences de température du sol de l’équateur au pôle ? Ici, on pensait généralement que le processus dynamique responsable du transfert de chaleur nord-sud était impliqué. Le processus est ce qu’on appelle l’instabilité barocline [12, 20, 26] (et essentiellement tous les manuels sur la dynamique des fluides en géophysique), et la pensée conventionnelle était que la différence de température résultait de l’équilibration de cette instabilité où l’état moyen se rapproche d’un état neutre vis-à-vis de cette instabilité. Le casse-tête, cependant, était de savoir comment il pouvait y avoir différentes équilibrations pour différents climats. La première tentative pour déterminer l’état d’équilibre a utilisé ce qu’on appelle l’approximation à deux couches dans laquelle l’atmosphère est approximée par 2 couches. Dans les systèmes en rotation comme la Terre, il existe une forte proportionnalité entre le cisaillement vertical du vent et le gradient de température horizontal. C’est ce qu’on appelle la relation du vent thermique. Dans le modèle à deux couches, il existe un cisaillement critique pour l’instabilité barocline et une différence de température méridienne associée entre les tropiques et le pôle qui s’est avérée être de 20 °C [19], qui est la valeur durant l’Éocène. En présence de neige et de glace, le profil de température vertical affiche ce que l’on appelle l’inversion arctique où, au lieu de la diminution habituelle de la température avec l’altitude, la température augmente en fait avec cette altitude. Cette inversion augmente considérablement la stabilité statique de l’atmosphère sous la tropopause et, comme suggéré par Held et Suarez [9], cela devrait réduire le transport thermique méridien. Cela semble expliquer les différences de température entre les tropiques et les pôles au cours du présent et des grandes glaciations.

La situation lorsque l’on considère une atmosphère continue au lieu du modèle à deux niveaux est beaucoup plus difficile à traiter. L’équilibration, dans ce cas, détermine la pente de la surface iso-entropique reliant la surface tropicale à la tropopause polaire [17] tout en laissant ambigu le champ de température en dessous de cette surface. L’équilibration se réfère simplement à ce que les instabilités barocliniques tentent de produire. L’entropie dans l’atmosphère est décrite par ce qu’on appelle la température potentielle. Il s’agit de la température qu’aurait une parcelle d’air si elle était abaissée adiabatiquement à la surface (là où la pression est plus élevée). Un isentrope originaire de la surface sous les tropiques s’élèvera à l’approche du pôle et déterminera essentiellement la température à la tropopause au-dessus du pôle. Selon Jansen et Ferarri [17], cela, à son tour, détermine la différence de température des tropiques au pôle à la hauteur de la tropopause polaire (environ 6 km), et cette valeur est d’environ 20 °C. Quand on regarde le climat d’aujourd’hui, on voit que la différence de température pôle-équateur à l’altitude de la tropopause polaire est en fait d’environ 20 °C [24]. L’existence de l’inversion arctique fait que les différences de température de surface entre les tropiques et le pôle sont plus importantes qu’elles ne le sont à la tropopause.

Encore une fois, l’explication actuellement répandue a une vision différente de cette situation. La physique a fini par être associée exclusivement à l’effet de serre amplifié par la rétroaction positive supposée de la vapeur d’eau. La variation de la différence de température entre l’équateur et le pôle a été attribuée à une certaine «amplification polaire» imaginaire, selon laquelle la température pôle-équateur suivait automatiquement la température moyenne [11]. Bien que l’analogie ne soit guère exacte, elle n’est pas si différente de l’hypothèse selon laquelle le débit d’eau dans une conduite dépend de la pression moyenne plutôt que du gradient de pression. En effet, il a été noté que certains modèles importants affichent à peine cette amplification polaire [18], tandis que les tentatives de modélisation de l’Éocène en augmentant simplement le CO2 aboutissent souvent à la distribution de température équateur-pôle d’aujourd’hui qui est uniformément augmentée [2, 13]. En ce qui concerne l’Éocène, cela a conduit à un réchauffement équatorial beaucoup plus important que celui observé dans les modèles.

L’un des résultats les plus insidieux de l’hypothèse que le changement de la température de l’équateur au pôle est une conséquence automatique du réchauffement climatique a été l’affirmation selon laquelle les données du paléoclimat impliquent une sensibilité climatique très élevée. Un traitement simpliste (schématique) des contributions séparées de l’effet de serre et des changements produits dynamiquement de la différence de température de l’équateur au pôle à la température moyenne mondiale illustre ce problème. La Figure 2 illustre la situation où x = sin (φ), φ latitude, x1 est l’étendue méridionale de la circulation de Hadley qui homogénéise efficacement horizontalement la température tropicale [10], les tropiques et la différence de température δT2 équateur-pôle.

Capture d’écran 2020-06-25 à 16.09.25

Notez que ΔT1 est le réchauffement des tropiques, tandis que Δ(δT2) est le changement de la différence de température de l’équateur au pôle. Alors que ΔT1 reflète la sensibilité au forçage et aux rétroactions de serre (c’est-à-dire radiatives), Δ(δT2) n’en a pas besoin, surtout lorsque ce dernier facteur est beaucoup plus grand que le premier. Toutes les tentatives d’estimation de la sensibilité au climat à partir des données paléo (du moins pour autant que je sache) ne parviennent pas à distinguer les deux et à attribuer les deux contributions au forçage à effet de serre dans l’estimation de la sensibilité au climat. Cela pourrait être une erreur majeure.

Capture d’écran 2020-06-25 à 16.11.21.png

Par exemple, en l’absence de forçage à effet de serre, ΔT1 pourrait être nul, alors qu’il pourrait toujours y avoir une contribution de Δ(δT2), ce qui conduirait bien sûr à un changement de la température moyenne mondiale. Ceci, à son tour, conduirait à la fausse conclusion que la sensibilité était infinie. Plus réaliste encore, si la sensibilité du climat au forçage radiatif était très faible, les contributions de Δ(δT2) pourraient encore conduire à conclure à tort que la sensibilité était grande [8].

Remarques finales

Comme indiqué dans la Section 2, il est peu plausible qu’un système aussi complexe que le système climatique avec de nombreux degrés de liberté soit résumé de manière significative par une seule variable (anomalie de la température moyenne mondiale) et déterminé par un seul facteur (le niveau de CO2 dans l’atmosphère). À titre d’exemple, nous avons montré dans la Section 4, que la physique différente associée aux températures tropicales (c’est-à-dire le forçage radiatif, y compris les rétroactions radiatives) et à la différence de température équateur-pôle (c’est-à-dire le transport hydrodynamique via les instabilités barocliniques) entraîne toutes deux des changements dans la température moyenne mondiale. Cependant, cela ne signifie pas que les changements de la température moyenne mondiale provoquent des changements dans la différence de température de l’équateur au pôle. Ce bref article s’est concentré sur un seul exemple de cas où l’hypothèse d’un contrôle à variable unique peut conduire à un résultat erroné. Cependant, la question de la sensibilité, même lorsqu’elle est limitée au rayonnement, est encore sujette à de nombreuses possibilités, et il y a de bonnes raisons de supposer que la composante radiative de la sensibilité est, elle-même, exagérée dans la plupart des modèles actuels. Une discussion séparée de cette question peut être trouvée dans Lindzen [22].

Fait intéressant, même ceux d’entre nous qui rejettent l’alarme climatique (y compris moi) se sont concentrés sur l’image de la serre malgré le fait que cela ne soit pas le facteur majeur du changement climatique historique (sauf, dans le cas, d’une faible sensibilité, pour expliquer la stabilité des températures équatoriales). C’est-à-dire que nous avons accepté la prémisse de base de l’image conventionnelle : à savoir que tous les changements de température moyenne mondiale sont dus au forçage radiatif. Bien que la compréhension de ce récit soit un élément crucial dans une bataille politique, il ne devrait pas être autorisé d’ignorer le raisonnement scientifique.

Article de Richard S. Lindzen paru le 3 juin 2020 dans The European Physical Journal Plus ( https://doi.org/10.1140/epjp/s13360-020-00471-z ) aimablement communiqué par l’auteur sur ma demande. Je l’ai informé de la traduction en français avant de la faire figurer sur mon blog.

Références

  1. A. Abe-Ouchi, F. Saito, K. Kawamura et al., Insolation-driven 100,000-year glacial cycles and hysteresis of ice-sheet volume. Nature 500, 190–193 (2013). https://doi.org/10.1038/nature12374
  2. E.J. Barron, W.M. Washington, Warm cretaceous climates: high atmospheric CO2 as a plausible mech- anism in the carbon cycle and atmospheric CO2, in Natural Variations Archean to Present, ed. by E.T. Sundquist, W.S. Broecker (American Geophysical Union, Washington, 1985). https://doi.org/10.1029/ GM032p0546
  3. J.S.Boyle,UpperlevelatmosphericstationarywavesinthetwentiethcenturyclimateoftheIntergovern- mental Panel on Climate Change simulations. J. Geophys. Res. 111, D14101 (2006). https://doi.org/10.1 029/2005JD006612
  4. J.S.Callendar,Theartificialproductionofcarbondioxideanditsinfluenceontemperature.Proc.R.Met. Soc. (1938). https://doi.org/10.1002/qj.49706427503
  5. CLIMAP Project Members, The surface of the ice-age earth. Science 191(4232), 1131–1137 (1976). https://doi.org/10.1126/science.191.4232.1131
  6. R.S.Edvardsson,K.G.Karlsson,M.Engholmoe,Accuratespinaxesandsolarsystemdynamics:climatic variations for the Earth and Mars. Astron. Astrophys. 384, 689–701 (2002). https://doi.org/10.1051/000 4-6361:20020029
  7. A. Ganopolski, V. Brovkin, Simulation of climate, ice sheets and CO2 evolution during the last four glacial cycles with an Earth system model of intermediate complexity. Clim Past 13, 1695–1716 (2017)
  8. G. Genthon, J.M. Barnola, D. Raynaud, C. Lorius, J. Jouzel, N.I. Barkov, Y.S. Korotkevich, V.M. Kotlyakov, Vostok ice core: climatic response to CO2 and orbital forcing changes over the last climatic

    cycle. Nature 329, 414–418 (1987)

  9. I.M.Held,M.Suarez,Atwo-levelprimitiveequationatmosphericmodeldesignedforclimaticsensitivity

    experiments. J. Atmos. Sci. 35, 206–229 (1978)

  10. I.M.Held,A.Y.Hou,Nonlinearaxiallysymmetriccirculationsinanearlyinviscidatmosphere.J.Atmos.

    Sci. (1980). https://doi.org/10.1175/1520-0469(1980)037%3c0515:nascia%3e2.0.co;2

  11. M.Holland,C.M.Bitz,Polaramplificationofclimatechangeincoupledmodels.Clim.Dyn.21,221–232

    (2003). https://doi.org/10.1007/s00382-003-0332-6

  12. J.R.Holton,G.J.Hakim,AnIntroductiontoDynamicMeteorology(AcademicPress,Cambridge,2012),

    p. 552

  13. M.Huber,L.C.Sloan,Warmclimatetransitions:ageneralcirculationmodelingstudyoftheLatePale-

    ocene thermal maximum (about 56 Ma). J. Geophys. Res. Atmos. 104, 16633–16655 (1999). https://doi.

    org/10.1029/1999JD900272

  14. J.Imbrie,K.P.Imbrie,IceAges:SolvingtheMystery(Macmillan,London,1979),p.244
  15. IPCCAR5-Box5.1(2013),https://www.ipcc.ch/report/ar5/wg1/
  16. IPCCSR15(2018),https://www.ipcc.ch/site/assets/uploads/sites/2/2019/06/SR15_Headline-statements.

pdf

  1. M. Jansen, R. Ferarri, equilibration of an atmosphere by adiabatic eddy fluxes. J. Atmos. Sci. (2013).

    https://doi.org/10.1175/JAS-D-13-013.1

  2. M.I.Lee,M.J.Suarez,I.S.Kang,I.M.A.Held,D.Kim,Amoistbenchmarkcalculationfortheatmospheric general circulation models. J. Clim. 21, 4934–4954 (2008). https://doi.org/10.1175/2008jcli1891.1
  3. R.S.Lindzen,B.Farrell,Theroleofpolarregionsinglobalclimate,andtheparameterizationofglobal

    heat transport. Mon. Weather Rev. 108, 2064–2079 (1980)

  4. Lindzen,R.S.(1990).DynamicsinAtmosphericPhysics,CambridgeUniv.Press,324pages
  5. R.S.Lindzen,M.-D.Chou,A.Y.Hou,DoestheEarthhaveanadaptiveinfrarediris?Bull.Am.Meteorol.

    Soc. 82(3), 417–432 (2001)

  6. Lindzen, R.S. (2019), http://co2coalition.org/wp-content/uploads/2019/12/Lindzen_On-Climate-

    Sensitivity.pdf

  7. M.Milankovitch,KanonderErdbestrahlungundseineAndwendungaufdasEiszeiten-problem(R.Ser- bian Acad, Belgrade, 1941)
  8. R.E. Newell, J.W. Kidson, D.G. Vincent, G.J. Boer, The Circulation of the Tropical Atmosphere and Interactions with Extratropical Latitudes, vol. 1 (M.I.T. Press, Cambridge, 1972)
  9. P.N. Pearson, B.E. van Dongen, C.J. Nicholas, R.D. Pancost, S. Schouten, J.M. Singano, B.S. Wade, Stable warm tropical climate through the Eocene Epoch. Geology 35(3), 211–214 (2007). https://doi.org/ 10.1130/G23175A.1
  10. J.Pedlosky,GeophysicalFluidDynamics(Springer,Berlin,1992),p.710
  11. R.L.Pfeffer(ed.),DynamicsofClimate:TheProceedingsofaConferenceontheApplicationofNumerical

    Integration Techniques to the Problem of the General Circulation held October 26–28, 1955 (Pergamon

    Press, Oxford, 1960), p. 154

  12. G.Roe,IndefenseofMilankovitch.Geophys.Res.Lett.(2006).https://doi.org/10.1029/2006GL027817
  13. R. Rondanelli, R.S. Lindzen, Can thin cirrus clouds in the tropics provide a solution to the faint young

    Sun paradox? J. Geophys. Res. 115, D02108 (2010). https://doi.org/10.1029/2009JD012050

  14. W.F.Ruddiman,Ice-drivenCO2feedbackonicevolume.Clim.Past2,43–55(2006)
  15. C. Sagan, G. Mullen, Earth and Mars: evolution of atmospheres and surface temperatures. Science

    177(4043), 52–56 (1972)

  16. N.Shackleton,A.Boersma,TheclimateoftheEoceneocean.J.Geol.Soc.Lond.138,153–157(1981)
  17. K.E. Trenberth, J.T. Fasullo, J. Kiehl, Earth’s global energy budget. Bull. Am. Meteorol. Soc. 90(3),

    311–323 (2009). https://doi.org/10.1029/GM032p0546

 

Réchauffement climatique d’origine humaine : une pure fiction selon deux équipes de géophysiciens !

À 48 heures d’intervalle, deux équipes de géophysiciens, l’une finlandaise et l’autre japonaise, passent à la contre-attaque et dénoncent les mensonges répétés de l’IPCC. La question qu’il est opportun de se poser avant d’entrer dans les détails de ces publications est la suivante : l’IPCC a-t-il été mandaté pour ne considérer que l’effet du gaz carbonique sur la sensibilité du climat à l’exclusion de tout autre paramètre ? Si la réponse est oui, alors qui est le mandataire (ou les mandataires) et pour quelles raisons ? Si la réponse est non, alors je n’aimerais pas me trouver, en tant qu’ancien scientifique, dans la peau d’un quelconque des membres de ce groupement de fonctionnaires internationaux qui accumule les mensonges « par omission » depuis sa création, attitude qui l’oblige à inventer encore plus de mensonges.

En effet les variations du climat terrestre ne dépendent pas que des variations de la teneur en gaz carbonique dans l’atmosphère, ce que ces deux équipes de géophysiciens démontrent clairement. L’IPCC a « oublié » (ou omis) de mentionner les variations de l’activité solaire. L’IPCC au aussi – et surtout – oublié la présence de vapeur d’eau et de nuages dans l’atmosphère. Personne ne peut nier qu’il y a des nuages dans le ciel, à moins d’aller chercher un bédouin au milieu du désert d’Arabie ou au milieu du Sahara qui témoignera que : « oui il n’y a jamais de nuages ici », alors ces quelques personnes confirmeront le fait que l’IPCC n’a jamais pris en compte ce paramètre central dans l’évolution du climat. Ces prétendus scientifiques de haut niveau qui osent donner des conseils aux gouvernements de tous les pays du monde, tous les membres des Nations-Unies, ont avoué, la bouche en coeur, que modéliser la formation et les mouvements des nuages, c’était trop compliqué, alors ils ne l’ont pas envisagé ! On croit rêver …

Entrons d’abord dans le vif du contenu du travail publié par des géophysiciens de l’Université de Kobe (doi : 10.1038/s41598-019-45466-8). Ces universitaires ont reconstruit les changements climatiques concernant le régime des moussons durant les périodes de la fin du Pléistocène et de l’Holocène en s’intéressant aux plateaux du nord de la Chine recouverts de loess, ces poussières apportées par les vents depuis les déserts, et où allaient ces poussières portées par les vents lors des moussons. Il se sont rendu compte que, dans le passé, quand le champ magnétique terrestre faiblissait puis s’inversait, le régime des moussons d’hiver, comme des moussons d’été, était profondément affecté. Durant le changement de direction du dipôle magnétique de la Terre, changement qui survient tous les 400000 ans environ, les variations concomitantes des régimes de mousson qui en résultaient étaient dues aux variations de la couverture nuageuse – sans nuages, pas de mousson – et que cette variation était directement liée à l’intensité du rayonnement cosmique atteignant les plus basses couches de l’atmosphère. Les travaux de cette équipe ont été focalisés sur les variations du régime des moussons telles qu’elles ont pu être évaluées par des carottages des sédiments dans les baies d’Osaka et de Tokyo. La conclusion de ces travaux est sans appel : lors du changement de polarité du champ magnétique terrestre l’intensité du champ magnétique diminue dramatiquement pour atteindre une valeur d’environ 25 % seulement de celle normalement relevée au cours d’un cycle normal de ce champ magnétique terrestre. Il en résulte une formation beaucoup plus fournie de nuages provoquée par le conflit normalement existant entre l’air froid sibérien entrant dans la région de l’archipel nippon qui se confronte avec l’air chaud et humide océanique provenant du sud de l’archipel. Cette situation a pour effet de favoriser un effet d’ombrelle nuageuse plus important que la normale en raison de l’intensité du bombardement cosmique, le champ magnétique terrestre n’étant plus assez efficace pour atténuer l’effet de ce bombardement cosmique sur la formation de nuages.

Capture d’écran 2019-07-14 à 19.22.49.png

On peut constater qu’il s’agit d’une vérification indirecte des hypothèses formulées par Svensmark sur l’influence combinée des champs magnétiques solaire et terrestre sur la protection de la Terre vis-à-vis des rayons cosmiques et de leur effet sur le climat. L’IPCC n’a jamais mentionné ce type de paramètre dans leurs nombreux modèles d’évolution de la température moyenne de la Terre, et pour cause, c’est tout aussi compliqué à modéliser que les nuages … Cette « ombrelle nuageuse » comme les géophysiciens japonais l’ont appelée a eu pour résultat une série d’épisodes de refroidissement du climat sur la période 1 million d’années – 200000 ans avant l’ère commune qui a fait l’objet de ces études.

Quelle horreur ! Remonter des centaines de milliers d’années en arrière pour expliquer le climat terrestre actuel qui préoccupe le monde entier doit paraître une hérésie profonde car la science climatique infuse est exclusivement du domaine de l’IPCC puisque pour cet organisme il suffit de « modéliser » pour savoir quel temps il fera en 2100. Et il faut croire cet organisme de fonctionnaires internationaux richement rémunérés par les impôts des contribuables du monde entier, nous n’avons plus le choix, c’est ce que ne cessent de répéter inlassablement tous les gouvernements des pays développés, dont en particulier les ministres des « transitions énergétiques », naturellement tous encartés aux partis verts locaux qui ont voué leur carrière politique à la cause climatique, quelques que soient leurs agissements privés par ailleurs : ils sont les seuls à détenir le savoir, point barre.

Et pourtant ces travaux ont mis indirectement en évidence le fait que les nuages, indépendamment de la cause de leur abondance relative au cours du temps, sont le paramètre naturel majeur de la sensibilité du climat comme cela va être exposé ci-après.

Venons-en donc maintenant aux travaux de Kauppinen et Malmi, deux Docteurs en géophysique de l’Université de Turku en Finlande. Les choses se compliquent sérieusement pour l’IPCC obsédé depuis sa création par le CO2. Le titre de leur publication est évocateur sinon provocateur : « Pas d’évidence expérimentale en faveur d’un changement du climat d’origine humaine » (arXiv : 1907.00165v1 [physics.ao-ph] 29 juin 2019, via Cornell University). Il existe une très large incertitude dans la communauté scientifique en ce qui concerne la sensibilité du climat, c’est-à-dire la résultante des divers facteurs affectant le climat, sensibilité qui se mesure en degrés Celsius. Certains modèles affirment que cette sensibilité est proche de zéro alors que d’autres modèles prédisent des augmentations de température pouvant atteindre 9 degrés C en cas de doublement de la teneur atmosphérique en CO2. La plupart de ces modèles utilisent une théorie dite « modèle de circulation générale » pour leurs estimations. Les modèles considérés comme plausibles par l’IPCC prévoient des sensibilités entre 2 et 5°C mais il y en a d’autres qui n’arrivent pas à dégager une quelconque sensibilité :

Capture d’écran 2019-07-13 à 18.10.21.png

Pour se faire une opinion de ce qui se passe dans la réalité il est nécessaire pour analyser l’anomalie de température par rapport à une moyenne, ce qu’indiquent les modèles, de faire la distinction entre les facteurs naturels et les gaz à effet de serre. Le rapport AR5 de l’IPCC stipulait que les facteurs naturels ne pouvaient pas expliquer l’évolution récente des températures comme l’indiquait en résumé la figure ci-dessous où les observations sont matérialisées par un trait noir, le facteur anthropogénique avec ses incertitudes en rose et les « facteurs naturels en bleu :

Capture d’écran 2019-07-16 à 18.50.49.png

L’un des facteurs naturels influant sur la température moyenne est la couverture nuageuse qui est disponible à partir des observations satellitaires. En rassemblant sur un même graphique les données relatives aux températures moyennes observées, plutôt leur écart par rapport à une moyenne fixée à 15°C, et les variations de la couverture nuageuse exprimées par rapport à une superficie égale à 26 % de la surface terrestre, on peut constater de cette représentation que quand il y a beaucoup de nuages, les températures ont tendance à diminuer et inversement quand cette même couverture nuageuse diminue l’écart des températures par rapport à la moyenne augmente positivement. On ne peut qu’en déduire que les nuages bloquent l’énergie solaire qui atteint moins efficacement la surface du sol ou des océans et par conséquent la température qui y est mesurée diminue :

Capture d’écran 2019-07-13 à 17.20.10.png

Dans cette figure le zéro de l’ordonnée pour les températures est 15°C et le Δc est la fraction exprimée en pourcentage correspondant au changement de la couverture nuageuse par rapport à la moyenne globale de 26 % de couverture nuageuse basse sur l’ensemble de la surface de la Terre.

Or, les modèles utilisés – forcing naturel seulement ou forcing naturel + forcing anthropogénique – devraient en toute logique se superposer autour de la courbe noire des observations si le forcing naturel considéré dans ces modèles prenait correctement en compte la contribution des nuages bas (voir la figure précédente figurant dans le rapport AR5 de l’IPCC. Force est de constater qu’il n’en est rien.

Mais si on superpose l’anomalie des températures observées entre l’été 1983 et l’été 2008 avec les observations globales de la couverture nuageuse, on va remarquer, bien qu’il y ait un « bruit de fond » important, que si on multiplie les données de couverture nuageuse exprimées en pourcentage de la moyenne sur cette période, un nombre sans dimension physique, par « moins » 0,11°C / % (-0,11) on retrouve grosso modo la même courbe que celle décrivant l’anomalie des températures :

Capture d’écran 2019-07-13 à 17.21.19.png

Les valeurs « zéro » pour chacune de ces grandeurs ΔT (en degrés) et Δc ( en %) sont respectivement, il est important de le rappeler encore une fois, de 15°C et 26 % pour les deux graphiques. Ce facteur multiplicatif -0,11 introduit une valeur physique, des degrés centigrades, à la couverture nuageuse exprimée en pourcentage qui peut alors être corrélée à la sensibilité climatique elle-même exprimée en degrés C.

Nous allons découvrir que ce facteur multiplicatif de « moins 0,11 °C » n’est pas sorti comme par magie d’un chapeau. Force est de constater qu’il existe une remarquable concordance entre ces deux courbes. Qu’est-ce que cela signifie ? Les anomalies de température telles qu’indiquées en rouge dans la première figure tiennent compte des facteurs naturels et de l’effet des gaz à effet de serre sur la sensibilité climatique, alors que dans cette première figure la courbe bleue n’indiquait que le facteur naturel qu’est la couverture nuageuse. Il est opportun de rappeler ici que cette couverture nuageuse est mesurée 24/24 heures à l’aide de radars installés sur des satellites et que les températures sont appréciées par thermométrie infra-rouge également avec l’aide de satellites. Cette concordance signifie tout simplement qu’il n’y a pas lieu de considérer un quelconque effet des gaz dits à effet de serre puisque températures et couverture nuageuse sont directement liées !

Les contradicteurs pourront toujours arguer du fait que le laps de temps indiqué dans ce travail est trop court. Il a pourtant été tenu compte des données satellitaires homogènes disponibles. Toute disparité dans ces observations aurait nécessité des corrections pouvant prêter à contestation. D’autres remarques seraient du genre : mais puisque l’IPCC affirme que l’évolution des températures entre 1983 et 2008 est uniquement explicable par l’augmentation de la teneur en CO2 atmosphérique de 343 à 386 ppm, donc c’est vrai, point final. Effectivement, la température moyenne globale, une notion, certes, contestable sur le plan strictement physique, a augmenté durant cette période de 0,4 °C. Conformément à la théorie développée par ces mêmes auteurs ( arXiv:1812.11547v1, décembre 2018 via Cornell University) et le résultat illustré par les deux courbes ci-dessus directement déduit de cette théorie, si la concentration en CO2 augmente de Co à C et double ( C = 2Co) le ΔT obéit à la loi suivante :

Capture d’écran 2019-07-13 à 17.02.47.png

où ΔT2CO2 est le changement global de la température et Δc le changement de la couverture nuageuse. Le premier terme de l’équation décrit l’effet du CO2 sur la sensibilité du climat et le second terme l’effet naturel – les nuages – indépendamment du CO2. En replaçant ΔT2CO2 par la valeur de la sensibilité du climat au CO2 qui est de 0,24 °C alors selon le premier terme de l’équation ci-dessus la contribution du CO2 n’est que de 0,04 °C. C’est la raison pour laquelle cette minuscule augmentation est invisible dans le deuxième graphe ci-dessus. Ce même calcul peut être transposé en tenant compte non plus de la couverture nuageuse de basse altitude mais de l’humidité ou teneur en vapeur d’eau de l’atmosphère, une grandeur également mesurable à l’aide de satellites et les auteurs sont arrivés aux mêmes conclusions.

Ces résultats conduisent donc à la révélation surprenante qui est la surévaluation de la sensibilité climatique au CO2 d’un facteur 10 par l’IPCC car la rétro-action négative des nuages sur la température a tout simplement été ignorée. De plus la contribution de l’activité humaine à l’accroissement du CO2 atmosphérique total étant de l’ordre de 4 % alors on ne peut que conclure que le réchauffement climatique d’origine humaine n’existe tout simplement pas ! Durant les dernières 100 années la température globale moyenne a augmenté de 0,1 °C et la contribution humaine, c’est-à-dire l’augmentation du CO2 atmosphérique n’a été que de 0,01 °C dans la sensibilité du climat. La couverture nuageuse contrôle donc principalement la température.

Le fait que l’équipe japonaise ait mis en évidence un rôle majeur des rayons cosmiques dans la formation de la couverture nuageuse constitue une explication d’une grande importance pour la compréhension des changements du climat, passés mais aussi à venir. Oublions l’inversion des pôles magnétiques terrestres qui est un processus s’étendant sur des centaines de milliers d’années. Il faut rappeler que sur une échelle de temps de l’ordre de quelques dizaines d’années le facteur naturel ayant une influence prépondérante sur les variations de la couche nuageuse est l’activité magnétique solaire. La Terre évolue dans le champ magnétique solaire et le rôle protecteur de ce champ magnétique contre les rayons cosmiques dépend directement de son intensité (voir note en fin de billet). La faiblesse du cycle solaire (#24) finissant et les prévisions plutôt pessimistes pour le cycle solaire suivant (#25) ne sont pas encourageantes pour la « sensibilité climatique », en d’autres termes pour la température moyenne qui sera ressentie durant les années à venir.

Notes. Le facteur multiplicatif -0,11 n’est pas une vue de l’esprit mais le résultat d’une longue étude qui a été publiée en 2018 et mentionnée ci-dessus. Je suggère à ceux de mes lecteurs qui voudraient contester le contenu non pas de mon billet mais celui des travaux de J. Kauppinen et P. Malmi de lire les deux articles cités en référence ou encore de s’adresser directement à ces auteurs dont voici l’ e-mail : jyrkau@utu.fi

Note. Le champ magnétique solaire est beaucoup plus puissant et étendu que celui de la Terre. Ce champ dévie les rayons cosmiques, j’ai écrit de nombreux billets à ce sujet. Le champ magnétique terrestre dévie également certains rayons cosmiques mais son rôle majeur dans la protection de la vie sur la Terre est de piéger les particules émises par le Soleil qui constituent le vent solaire.

La magie de l’eau …

Ce billet n’a pas la prétention d’être un cours de physique. Il rassemble en une prose compréhensible pour tous divers éléments recueillis dans la littérature scientifique qui permettent de comprendre pourquoi la Terre n’est pas une planète morte. D’abord la seule source d’énergie sous forme de chaleur dont dispose la Terre provient du Soleil et pourtant les divers gaz constituant la mince couche de l’atmosphère entourant la Terre sont essentiellement transparents aux rayons infra-rouge mis à part la vapeur d’eau. L’oxygène piège quant à elle les rayons ultra-violets dans les hautes couches de l’atmosphère, mais c’est une autre histoire. Alors puisque l’atmosphère est transparent aux rayons infra-rouge, me direz-vous, qu’est-ce qui réchauffe l’atmosphère terrestre ? La réponse est évidente et limpide : ce sont tout simplement les océans qui recouvrent plus de 70 % de la surface de la Terre !

Ah bon, et comment ? L’atmosphère contient entre 0,4 et 4 % de vapeur d’eau, soit de 10 à 100 fois plus que de gaz carbonique selon les zones du globe où on se trouve. Or l’eau est un composé chimique particulier qui requiert une formidable quantité d’énergie pour « changer d’état » (ou de phase) et c’est là que réside le secret de la Terre, secret jalousement unique dans notre système solaire.

Reprenons notre raisonnement : le Soleil chauffe directement les océans qui paraissent parfaitement noirs vus de l’espace mais aussi du huitième pont d’un gros navire, et c’est vrai. Les océans ne sont pas bleus, ils paraissent bleus parce qu’ils réfléchissent la couleur bleue de l’atmosphère. Les océans sont donc de formidables pièges pour l’énergie provenant du Soleil sous forme de chaleur, le destin final des rayons infra-rouges solaires.

Mais d’une façon ou d’une autre les océans doivent de débarrasser de toute cette chaleur car ils auraient fini par bouillir un jour … et c’est là qu’intervient le côté magique de l’eau.

En effet il faut beaucoup d’énergie pour vaporiser un litre d’eau : 2,25 millions de joules ou encore 9400 kiloCalories ou encore 610 Wh, trois unités physiques différentes pour l’énergie. Quand la vapeur d’eau s’élève dans l’atmosphère elle va avoir tendance à se condenser en gouttelettes qui vont former des nuages puisque, comme chacun a pu le constater, l’air devient plus frais au fur et à mesure qu’on gravit une montagne et c’est vrai aussi au niveau de l’Equateur, j’en ai moi-même fait l’expérience dans l’île d’Hiva-Oa aux Marquises. Au cours de ce deuxième « changement de phase » toute l’énergie en quelque sorte dépensée par l’océan pour vaporiser cette eau est intégralement restituée à l’atmosphère en vertu du premier principe de la thermodynamique. L’atmosphère, par voie de conséquence, se réchauffe quand des nuages se forment à partir de vapeur d’eau. Les nuages sont en réalité des aérosols constitués de petites gouttelettes d’eau et si pour une raison ou pour une autre, l’atmosphère n’étant jamais parfaitement immobile, ces nuages rencontrent des couches atmosphériques plus froides, alors ces gouttelettes se transforment en glace et là encore ce troisième « changement d’état » de l’eau, cette fois de liquide vers solide, restitue de l’énergie à l’atmosphère, certes beaucoup moins mais malgré tout à hauteur de 15 % de la quantité d’énergie restituée par le changement de phase de gaz vers liquide. Et encore une fois l’atmosphère se réchauffe !

Au final ce sont les océans qui chauffent l’atmosphère et non pas le Soleil comme on aurait tendance à le croire. Certes cette observation est contre-intuitive mais c’est pourtant la réalité et ce n’est possible que grâce à la vapeur d’eau …

Il reste un petit point de la magie de l’eau qu’il ne faut pas oublier de mentionner : la glace. Dans les hautes couches de l’atmosphère – en gros au delà de 5000 mètres d’altitude – les micro-cristaux de glace font office de miroir et réfléchissent le rayonnement infra-rouge en provenance du Soleil mais si la glace était plus lourde que l’eau liquide, que se passerait-il ? Il n’y aurait tout simplement pas de vie évoluée sur la Terre ! En effet les océans seraient gelés en permanence à l’exception d’une fine couche d’eau à leur surface : les océans ne seraient plus noirs mais blancs et ils réfléchiraient parfaitement le rayonnement infra-rouge solaire, l’atmosphère serait irrémédiablement froid et la Terre serait une planète inhospitalière … Voilà en très bref les bienfaits de la magie de l’eau.

Illustration : un nuage « vertical » surmonté de cristaux de glace pris en photo depuis le balcon de mon modeste logement il y a quelques jours

Ca chauffe en dessous !

DSC_3478

DSC_3482

Puisque la théorie de l’effet de serre doit être considérée comme admise, le « consensus » scientifique l’a ainsi décrété, vues d’avion l’atmosphère a vraiment l’air d’être brûlante comme le montre cette photo, pas du tout retouchée avec photoshop, prise au dessus de l’Atlantique un peu après 21h GMT lundi 14 avril quelques dizaines de minutes après avoir capté le Teide. La photo du Teide indique deux choses, la hauteur des nuages, environ 1800 mètres et surtout la neige qui persiste sur le volcan, du jamais vu de mémoire de Canarien pour la semaine sainte, un immense événement local puisque tout le monde ou presque est en vacances et de la neige sur le Teide à cette époque de l’année c’est mauvais signe et une bonne occasion d’aller implorer la Virgen et tous les saints.

L’autre cliché montre les couche brûlantes de l’atmosphère nuageux qui sont la cause de l’effet de serre en renvoyant les infra-rouges vers la surface de la Terre et transformant celle-ci en fournaise, c’est facile à comprendre pour qui suit à la lettre les dires des « savants » de l’IPCC. A noter qu’à 25000 pieds, la température était déjà de moins 48 degrés C. On peut se demander pourquoi il faisait aussi froid, mais c’est bien sûr, c’est à cause de l’effet de serre qui renvoie la chaleur uniquement vers la Terre et non pas vers l’espace. CQFD !

Mes lecteurs vont croire que je n’y comprends plus rien du tout et que j’écris des imbécillités, mais pas du tout, j’interprète ce que je vois sans me poser de questions en suivant à la lettre ce que dit l’IPCC. D’ailleurs le Teide encore recouvert de neige n’est pas réchauffé par l’effet de serre puisqu’il n’y a pas de nuages au dessus de lui, c’est évident, non ? Donc l’effet de serre est causé par les nuages qui renvoient, comme ils sont chauds et rouges, la chaleur vers la Terre. Mais heureusement que l’océan capture cette chaleur qui tombe au fond, comme l’ont bien indiqué les « experts », sinon il se mettrait à bouillir en surface, ça ferait encore plus de nuages et encore plus d’effet de serre et même en voulant échapper aux températures infernales sur terre, en se jetant dans la mer on finirait cuit comme un œuf dur. L’horreur ! D’ailleurs Christine Lagarde l’avait bien dit à Davos, on sera tous grillés comme des toasts. Il est vrai qu’elle était et est toujours complètement endoctrinée par les « experts » de l’IPCC. Et elle n’est pas la seule … J’allais oublier, durant les 17 heures de vol nécessaires et suffisantes pour aller de Tenerife à Tokyo, je n’ai pas cessé de partir en pétulances. En gros 5 litres de méthane répandus dans la cabine de l’avion, multiplié par 300 personnes (dans un B777) ou multiplié par quelques dizaines de millions de passagers chaques jours dans les airs, tout ce méthane, répandu directement dans les hautes couches de l’atmosphère réfléchit encore plus la chaleur vers les nuages qui à leur tour réfléchissent cette chaleur vers la Terre, bien plus efficace que tous les forages gaziers du monde entier, l’horreur !

C’était de l’humour

Les rayons cosmiques et les nuages, un début de preuves concrètes

Les nuages et plus généralement la vapeur d’eau sont de puissants rétenteurs de la chaleur solaire atteignant la surface de la Terre, le CO2 n’arrivant que très loin derrière si tant est que le CO2 ait un réel effet dit « de serre » comme se complaisent à le déclarer les climatologues d’opérette et les écologistes. Toute cette histoire rocambolesque de réchauffement climatique provient d’une simulation numérique réalisée il y a près de 20 ans et dont les prémices n’ont jamais été démentis car qui commet une erreur tente de la dissimuler en persévérant dans son erreur quitte à argumenter dans encore plus d’erreur. Que se passe-t-il donc dans la haute atmosphère durant la journée ? Les rayons ultra-violets solaires réagissent avec l’anhydride sulfureux produit par l’activité humaine et les volcans qui, combiné avec l’ozone et l’eau forme de l’acide sulfurique. Cet acide sulfurique forme des micro-foyers de condensation et entraine la naissance de nuages d’altitude essentiellement constitués de cristaux de glace. Les chimistes de l’atmosphère ont émis cette hypothèse qui veut que la nuit, la croissance des nuages d’altitude cesse pour reprendre durant l’épisode d’éclairement suivant. Or il n’en est rien et les nuages continuent de se former. Le seul candidat pouvant alors être évoqué pour expliquer cette observation dans le cadre d’une expérience appelée SKY2 (https://dl.dropboxusercontent.com/u/51188502/PLA22068.pdf) et réalisée à l’Université Technologique du Danemark est la présence continue des rayons cosmiques provenant de la galaxie.

cloud_condensation_nuclei2

Pour simuler en laboratoire l’effet des rayons cosmiques, une source de rayons gamma a été utilisée (césium 137) même si ce n’est qu’une approximation de la nature des rayons cosmiques. En réalité les rayons cosmiques ne sont pas des radiations électromagnétiques comme les rayons gamma ou la lumière mais des particules de matière se déplaçant dans l’espace intersidéral à des vitesses proches de celle de la lumière, donc extrêmement énergétiques. Quand un rayon cosmique, le plus communément un noyau d’atome d’hydrogène (proton) entre en collision avec un atome d’oxygène, par exemple, une gerbe de particules prend naissance, dont des rayons gamma et c’est la raison pour laquelle une source de rayons gamma a été utilisée pour expliquer la formation des nuages. Les modèles mathématiques (encore eux) n’arrivaient pas à expliquer la formation des nuages simplement avec les rayons ultra-violets (voir la figure) et l’expérience réalisée à l’Université Danoise a permis de montrer sans ambiguité que les rayons cosmiques, dont le bombardement des hautes couches de l’atmosphère est incessant, jouent un rôle qui est loin d’être négligeable dans l’apparition des nuages. Comme le bombardement particulaire provenant de la galaxie, des super-nova et du centre même de la galaxie où se trouvent peut-être plusieurs trous noirs, ne varie que très peu en intensité, il joue certes un rôle maintenant prouvé au moins en laboratoire, mais certainement aucun rôle majeur dans le prétendu réchauffement climatique sinon en favorisant la formation incessante des nuages. Mais ce qui conforte alors le rôle peut-être prépondérant des rayons cosmiques est que leur intensité varie également en fonction de l’activité solaire car le puissant champ magnétique solaire combiné à celui de la terre module en quelque sorte l’abondance des rayons cosmiques et donc la formation des nuages et par voie de conséquence les variations climatiques. Et c’est loin d’être négligeable puisque puisque dix mille particules secondaires provenant d’une première collision dans la haute atmosphère arrivent à la surface de la terre chaque seconde par mètre carré. Autant dire que les poussières mais aussi les rayons cosmiques jouent un rôle notable dans le climat.

Source et illustration : Technical University of Denmark (DTU)