Une image simpliste de l’évolution du climat basée sur un seul paramètre peut conduire à des conclusions erronées.

Lindzen©Francisco Guasco-EFE-MAXPPP copie.jpg

Par Richard S. Lindzen, Professeur émérite à l’Alfred P. Sloan Department of Atmospheric Sciences, MIT, Cambridge, Massachusetts

Avant-propos de votre serviteur. J’ai osé imposer à mes lecteurs la laborieuse lecture d’un document scientifique apportant des preuves irréfutables de l’imposture qu’utilisent les pays occidentaux pour justifier des décisions ruineuses pour leur économie afin de sauver le climat. Cette année 2020 sera encore déclarée l’année la plus chaude après le début de l’ère industrielle et c’est tout à fait vrai puisque depuis 1998 la température moyenne globale n’a pas évolué, donc les années à venir resteront les « plus chaudes » jusqu’au refroidissement prévu par les spécialistes dans le domaine du climat. Lindzen démonte la théorie du réchauffement du climat adossée sur un seul facteur, le CO2. Si j’ai pris la peine de traduire son article c’est simplement parce qu’il est compréhensible et qu’il doit être lu et dispersé autour de vous car il est solide et incontestable. Si l’un de mes lecteurs désire contacter Richard Lindzen voici son adresse électronique : rlindzen@mit.edu . Bonne lecture.

Résumé. La nature du système climatique est passée en revue. Ensuite, l’histoire des approches scientifiques des principaux problèmes climatiques est examinée, notant que la centralité de la contribution du dioxyde de carbone est relativement récente et probablement inappropriée pour une grande partie de l’histoire climatique de la Terre. La faiblesse de caractériser le comportement climatique global en utilisant un seul processus physique, le forçage radiatif moyenné à l’échelle mondiale, est illustrée en considérant le rôle d’un processus également bien connu, le transport thermique méridional par des processus hydrodynamiques qui, en changeant la différence de température entre l’Equateur et les pôles, a également un impact sur la température moyenne mondiale.

Introduction. Le tableau actuel de la question du réchauffement climatique présenté au grand public repose sur le fait que le CO2 absorbe et émet dans l’infrarouge, et que son ajout dans l’atmosphère doit donc conduire à un certain réchauffement. En effet, la terre se réchauffe depuis la fin du petit âge glaciaire, et le niveau de CO2 a en effet augmenté, mais cela ne constitue guère une preuve. Cependant, le fait que des modèles informatiques à grande échelle puissent être réalisés pour reproduire le réchauffement avec l’augmentation du CO2 est considéré comme une preuve solide. Au-delà de cela, l’affirmation selon laquelle tout réchauffement indique une catastrophe, surtout si elle est supérieure à l’objectif défini politiquement de + 1,5 °C (dont plus de 1 °C a déjà eu lieu), et exige des réductions importantes de l’utilisation des combustibles fossiles [16] (cf. références en fin de traduction).

Bien qu’il soit souvent noté que le réchauffement par effet de serre est connu depuis longtemps dans la littérature sur le climat, il s’avère que cela n’était généralement pas considéré comme une cause majeure du changement climatique avant les années 1980. Dans cet article, nous présentons une description du système climatique afin de replacer le rôle du réchauffement par effet de serre dans un contexte approprié. Nous examinons ensuite comment le climat était perçu dans la littérature antérieure (ainsi que certains travaux plus récents), et comparons cela avec l’approche actuelle. Il est démontré qu’il existe des raisons substantielles de considérer la présente explication publiquement acceptée comme improbable.

Le système climatique. Ce qui suit est une description totalement non controversée du système climatique.

i. Le cœur du système que nous examinons consiste en deux fluides turbulents, l’atmosphère et les océans, interagissant l’un avec l’autre.

ii. Les deux fluides se trouvent sur une planète en rotation qui est chauffée de manière différentielle par le soleil.

Cela se réfère simplement au fait que le rayonnement solaire est directement incident à l’équateur alors qu’il effleure à peine la terre aux pôles. Le chauffage inégal entraîne la circulation de l’atmosphère et ces mouvements sont responsables du transport méridional de la chaleur.

iii. La composante océanique a des systèmes de circulation avec des échelles de temps allant des années aux millénaires, et ces systèmes transportent la chaleur vers et depuis la surface.

Le forçage de l’océan est complexe. En plus du chauffage différentiel, il y a le forçage par le vent et les injections d’eau douce. En raison de la densité plus élevée de l’eau par rapport à l’air, les circulations sont beaucoup plus lentes dans l’océan et les circulations peuvent avoir de très longues échelles de temps. Le fait que ces circulations transportent la chaleur vers et depuis la surface signifie que la surface n’est jamais en équilibre avec l’espace.

iv. En plus des océans, l’atmosphère interagit avec une surface terrestre extrêmement irrégulière. Le flux d’air est fortement déformé par le passage sur les principales hétérogénéités topographiques et thermiques de la surface qui forment des ondulations à l’échelle planétaire et celles-ci impactent fortement les variations régionales lointaines du climat qui, il s’avère, sont généralement insuffisamment décrites dans les modèles [3].

v. Un constituant essentiel du composant atmosphérique est l’eau dans les phases liquide, solide et vapeur, et les changements de phase ont de vastes ramifications énergétiques. Chacune de ces phases physiques de l’eau a un rôle également extrêmement important.

Le dégagement de chaleur lorsque la vapeur d’eau se condense conduit à la formation de nuages d’orage (appelés cumulonimbus) et ce processus est important. De plus, les nuages sont constitués d’eau sous forme de fines gouttelettes et de glace sous forme de fins cristaux. Normalement, ces fines gouttelettes et cristaux sont suspendus par l’augmentation des courants d’air, mais lorsque ceux-ci deviennent suffisamment gros, ils tombent dans l’air ascendant sous forme de pluie et de neige. Non seulement les énergies impliquées dans les transformations de phase sont importantes, mais le fait est que la vapeur d’eau et les nuages (à base de glace et d’eau) affectent fortement le rayonnement. Les deux substances à effet de serre les plus importantes sont de loin la vapeur d’eau et les nuages. Les nuages sont également d’importants réflecteurs de la lumière solaire. Ces questions sont examinées en détail dans les rapports du GIEC WG1, dont chacun reconnaît ouvertement les nuages comme sources principales d’incertitude dans la modélisation du climat.

vi. Le bilan énergétique de ce système implique l’absorption et la réémission d’environ 240 W / m2. Le doublement du CO2 entraîne une perturbation un peu inférieure à 2% de ce bilan (4 W / m2) [33]. Il en va de même pour les changements dans les nuages et autres fonctionnalités, et ces changements sont courants.

La Terre reçoit environ 340 W / m2 du soleil, mais environ 100 W / m2 est simplement renvoyé dans l’espace à la fois par la surface de la Terre et, plus important encore, par les nuages. Cela laisserait environ 240 W / m2 que la terre devrait réémettre pour établir l’équilibre. Le soleil rayonne dans la partie visible du spectre de rayonnement parce que sa température est d’environ 6000 °K. Si la Terre n’avait pas du tout d’atmosphère (mais à des fins d’argument, si elle réfléchissait toujours 100 W / m2), elle devrait rayonner à une température d’environ 255 °K (- 18 °C), et, à cette température, le rayonnement se trouve principalement dans l’infrarouge.

Bien sûr, la Terre a une atmosphère et des océans, ce qui introduit une multitude de complications. L’évaporation des océans produit de la vapeur d’eau dans l’atmosphère, et la vapeur d’eau absorbe très fortement et émet des rayonnements dans l’infrarouge. La vapeur d’eau empêche essentiellement le rayonnement infrarouge de quitter la surface de la Terre, provoquant le réchauffement de cette surface et (par conduction) de l’air adjacent à la surface, et la convection s’installe. La combinaison des processus radiatifs et convectifs entraîne une diminution de la température avec la hauteur. Pour compliquer les choses, la quantité de vapeur d’eau que l’air peut contenir diminue rapidement à mesure que la température diminue. Au-dessus d’une certaine hauteur, il reste si peu de vapeur d’eau que le rayonnement à ce niveau peut maintenant s’échapper dans l’espace. C’est à ce niveau élevé (environ 5 km) que la température doit être d’environ 255 °K pour équilibrer le rayonnement entrant. Cependant, comme la température diminue avec la hauteur, la surface de la Terre doit maintenant être en fait plus chaude que 255 °K. Il s’avère qu’elle doit être d’environ 288 °K (15 °C, ce qui est en effet la température moyenne de la surface de la Terre). L’ajout d’autres gaz à effet de serre (comme le CO2) augmente encore le niveau d’émission et provoque une augmentation supplémentaire de la température du sol. On estime que le doublement du CO2 équivaut à un forçage d’environ 4 W / m2, ce qui représente un peu moins de 2% des 240 W / m2 entrants nets.

La situation peut en fait être plus compliquée si des nuages de type cirrus de niveau supérieur sont présents. Ce sont des absorbeurs et émetteurs de rayonnement infrarouge très puissants qui bloquent efficacement le rayonnement infrarouge vers le bas. Ainsi, lorsque de tels nuages sont présents au-dessus d’environ 5 km, avec leur sommet à plus de 5 km d’altitude, ils déterminent le niveau d’émission. Cela rend la température du sol (c’est-à-dire l’effet de serre) dépendante de la couverture nuageuse. La quantification de cet effet peut être trouvée dans Rondanelli et Lindzen [29].

De nombreux facteurs, notamment les fluctuations de la zone et de la hauteur moyenne des nuages, la couverture neigeuse, les circulations océaniques, etc… entraînent généralement des modifications du budget radiatif comparables à celles du doublement du CO2. Par exemple, l’effet radiatif moyen global net des nuages est de l’ordre de – 20 W / m2 (effet de refroidissement). Un forçage de 4 W / m2, à partir d’un doublement de CO2, ne correspond donc qu’à une variation de 20% de l’effet net des nuages.

vii. Il est important de noter qu’un tel système fluctuera avec des échelles de temps allant de quelques secondes à des millénaires même en l’absence de forçage explicite autre qu’un Soleil ayant une activité fixe.

Une grande partie de la littérature populaire (des deux côtés du débat sur le climat) suppose que tous les changements doivent être entraînés par un facteur externe. Bien sûr, le système climatique est entraîné par le Soleil, mais même si le forçage solaire était constant, le climat continuerait de varier. De plus, étant donné la nature massive des océans, de telles variations peuvent impliquer des échelles de temps de millénaires plutôt que de millisecondes. El Nino est un exemple relativement court impliquant quelques années, mais la plupart de ces variations temporelles internes sont trop longues pour être même identifiées dans notre système de données instrumentales relativement court. La nature a de nombreux exemples de variabilité autonome, notamment le cycle des taches solaires d’environ 11 ans et les inversions du champ magnétique terrestre tous les deux cent mille ans environ. À cet égard, le système climatique n’est pas différent des autres systèmes naturels, c’est-à-dire qu’il peut présenter une variabilité autonome. Des exemples bien connus comprennent l’oscillation quasi biennale de la stratosphère tropicale, l’oscillation australe El-Nino, l’oscillation multidécennale atlantique et l’oscillation décennale du Pacifique.

viii. Bien sûr, ces systèmes répondent également au forçage externe, mais un tel forçage n’est pas nécessaire pour qu’ils présentent une variabilité.

Se limiter à des questions totalement non controversées signifie que la description ci-dessus n’est pas entièrement complète, mais elle montre l’hétérogénéité, les nombreux degrés de liberté et les nombreuses sources de variabilité du système climatique.

L’évaluation «consensuelle» de ce système est aujourd’hui la suivante : Dans ce système multifactoriel complexe, le climat (qui, lui-même, se compose de nombreuses variables – en particulier la différence de température entre l’équateur et les pôles) est décrit par une seule variable, la variation de la température moyenne mondiale, et est contrôlé par la perturbation de 1 à 2% du budget énergétique due à une seule variable (n’importe quelle variable) parmi de nombreuses variables d’importance comparable. Allons plus loin et désignons le CO2 comme unique contrôle. Bien que nous ne soyons pas sûrs du budget de cette variable, nous savons précisément quelles politiques mettre en œuvre pour la contrôler.

Comment une image aussi naïve a-t-elle pu être acceptée, non seulement par les partisans de ce seul paramètre, mais aussi par la plupart des sceptiques ? Après tout, nous consacrons une grande partie de nos efforts à discuter des relevés des températures mondiales, de la sensibilité au climat, etc… En bref, nous sommes guidés par cette ligne de pensée.

Historique

En fait, ce point de vue sur le climat a été initialement rejeté par de nombreuses personnalités, dont le directeur du Scripps Institute of Oceanography (1), le directeur du Centre européen de prévision météorologique à moyen terme (2), le chef de l’Organisation météorologique mondiale (3), le chef de l’unité de recherche sur le climat de l’Université d’East Anglia (4), l’ancien chef du British Meteorological Office (5), un ancien président de la US National Academy of Science (6), les principaux climatologues soviétiques (7) etc. Même en 1988, lorsque James Hansen a présenté son célèbre témoignage au Sénat américain, Science Magazine a fait état d’un scepticisme généralisé dans la petite communauté des climatologues d’alors. Cependant, tous ces individus appartenaient à une génération plus âgée et beaucoup sont maintenant morts. Entre 1988 et 1994, les choses ont radicalement changé. Aux États-Unis, le financement pour le climat a augmenté d’un facteur d’environ 15. Cela a entraîné une forte augmentation du nombre de personnes intéressées à travailler en tant que « climatologues », et les nouveaux climatologues ont compris que la raison du financement était l’ « alarme de réchauffement climatique ».

En France, dans les années 60, il y avait essentiellement un seul météorologiste théorique, Queney. Aujourd’hui, des centaines sont impliqués dans les modèles sinon la théorie, et cela est largement dû au « réchauffement climatique ». Est-il déraisonnable de se demander si un seul mouvement politique n’a pas réussi à saisir ce domaine scientifique ?

Note. (1) William Nierenberg, (2) Lennard Bengtsson, (3) Askel Wiin-Nielsen, (4) Hubert Lamb, (5) Basil John Mason, (6) Frederick Seitz, (7) Mikhail Budyko, Yuri Izrael et Kiril Kondratiev.

Quelle était la situation auparavant ? Pendant la majeure partie du XXe siècle, le climat était un petit sous-ensemble de petits domaines de la météorologie et de l’océanographie avec des contributions importantes d’une poignée de géologues. Presque aucun grand scientifique travaillant sur des aspects du climat ne s’appelait lui-même «climatologues». En météorologie, l’approche dominante du climat était la météorologie dynamique (bien que l’effet de serre fut bien connu).

Pfeffer [27] fournit un bon exemple de ce qui était considéré comme les problèmes fondamentaux du climat en 1955. Il s’agit des actes d’une conférence qui a eu lieu en 1955 à l’Institut d’études avancées de l’Université de Princeton, où John von Neumann avait commencé la prévision numérique du temps. Les contributeurs à ce volume comprenaient J. Charney, N. Phillips, E. Lorenz, J. Smagorinsky, V. Starr, J. Bjerknes, Y. Mintz, L. Kaplan, A. Eliassen, entre autres (avec une introduction de J. Robert Oppenheimer). Les contributeurs étaient généralement considérés comme les chefs de file de la météorologie théorique. Un seul article traitait du transfert radiatif et ne se concentrait pas sur l’effet de serre, bien que l’augmentation du CO2 soit brièvement mentionnée. Certes, Callendar [4] avait suggéré que l’augmentation du CO2 aurait pu provoquer le réchauffement de 1919 à 1939, mais les principaux météorologues anglais de l’époque, Simpson et Brunt, ont souligné les lacunes de son analyse dans les commentaires qui ont suivi la présentation du papier de Callendar.

Première approche du climat par rapport à la position actuelle

Dans les années 80, avec les progrès de la paléoclimatologie, plusieurs aspects de l’histoire du climat sont apparus avec une clarté accrue. Nous avons commencé à voir plus clairement la nature cyclique des cycles de glaciation du dernier million d’années environ [14]. Des périodes chaudes comme l’Éocène (il y a 50 millions d’années) sont devenues mieux définies [32]. Les données suggèrent que pour les périodes glaciaires et les périodes chaudes, les températures équatoriales ne différaient pas beaucoup des valeurs actuelles, mais la différence de température entre les tropiques et les hautes latitudes variait considérablement. Voici les différences de température:

Capture d’écran 2020-06-25 à 15.30.26.png

Les variations des températures équatoriales étaient beaucoup plus faibles que les différences ci-dessus. Fait intéressant, cependant, les estimations originales étaient que la température équatoriale pendant l’Éocène était un peu plus froide qu’elle ne l’est aujourd’hui [32], tandis que la température équatoriale pendant le dernier maximum glaciaire (LGM) était un peu plus chaude qu’elle ne l’est aujourd’hui. Bien sûr, ce n’est pas ce à quoi on pourrait s’attendre pour le forçage par effet de serre, et des efforts intenses ont été déployés pour « corriger » les températures équatoriales. Aujourd’hui, la température équatoriale de l’Éocène, communément admise, est considérée comme impossible à distinguer de celle d’aujourd’hui [25], tandis que la température équatoriale du LGM est généralement considérée comme étant environ 2 °C plus froide qu’aujourd’hui. En ce qui concerne cette discussion, les changements de température équatoriale sont encore faibles. La situation ci-dessus soulève des questions passionnantes et importantes concernant le climat. Nous allons examiner trois de ces questions.

1. Qu’est-ce qui explique les cycles de glaciation des 700 000 dernières année ?

Milankovitch [23] a avancé très tôt une suggestion intéressante à ce sujet : à savoir que les variations orbitales entraînaient de fortes variations de l’insolation estivale dans l’Arctique, ce qui déterminait si les accumulations de neige hivernales fondaient ou persistaient tout au long de l’été. Imbrie et d’autres ont trouvé une corrélation assez faible entre les pics du forçage orbital et le volume de glace arctique. Cependant, Roe [28] et Edvardsson et al. [6] ont montré que lorsque l’on compare la dérivée temporelle du volume de glace plutôt que le volume de glace lui-même, la corrélation avec l’insolation estivale est excellente. C’est ce qui est montré explicitement dans la figure 1 (tiré de Roe [28]). Cette figure montre le meilleur ajustement des paramètres orbitaux à la dérivée temporelle du volume de glace, et cela est presque identique au paramètre Milankovitch. Notez que l’insolation varie localement d’environ 100 W / m2. Edvardsson et al. [6], a montré que les variations de l’insolation était quantitativement cohérente avec la fonte et la croissance de la glace. Cela semble constituer une preuve solide du bien-fondé de la proposition de Milankovitch. (Note. SPECMAP est l’acronyme du projet de datation des sédiments marins afin de permettre la datation des carottages glaciaires tant au Groenland qu’en Antarctique).

Capture d’écran 2020-06-25 à 15.38.47.png

Il est intéressant de noter comment la position dominante actuelle traite de ce problème (Ruddiman [30], voir aussi Genthon et al. [8]). Aucune mention n’est faite du succès remarquable des efforts indépendants d’Edvardsson et al. [6] et Roe [28]. De plus, Roe a dû inclure une mise en garde que son travail n’avait aucune implication pour le rôle du CO2, afin de pouvoir faire publier son article (communication personnelle).

L’approche officielle actuelle [15] est la suivante : l’insolation estivale arctique est ignorée et au contraire, seule l’insolation moyenne à l’échelle mondiale et annuelle est prise en compte, et celle-ci varie d’environ deux ordres de grandeur de moins que l’insolation estivale de l’Arctique. Un rôle causal du CO2 ne peut pas être revendiqué puisque ces variations (entre 180 et 280 ppmv – correspondant à un changement de forçage radiatif d’environ 1 W / m2) suivent plutôt que précèdent les changements de température. Il est donc soutenu que les variations orbitales « rythment » les cycles de glaciation et que les changements de CO2 qui en résultent fournissent l’amplification nécessaire. Cette interprétation est une conséquence directe du fait de considérer l’insolation globale comme le moteur des changements. En réalité, comme le notent Roe (et Milankovitch), l’Arctique réagit au rayonnement dans l’Arctique, et les changements dans l’Arctique sont beaucoup plus importants que ceux associés à l’insolation moyenne mondiale. Pour être juste, il convient de mentionner que des analyses plus récentes tendent à corroborer cette image plus réaliste de la réponse des hautes latitudes à l’insolation (par exemple Abe-Ouchi et al. [1] ou Ganopolski et Brovkin [7]).

Revenons maintenant aux deux questions restantes. 2. Qu’est-ce qui explique la stabilité des températures tropicales? Les processus radiatifs-convectifs (y compris l’effet de serre) sont généralement considérés comme jouant un rôle majeur dans la détermination de la température tropicale. Le fait que ces températures semblent avoir peu changé dans des régimes climatiques radicalement différents est compatible avec une faible sensibilité au forçage par effet de serre [22]. En effet, il existe des preuves solides qu’il y a environ 2,5 milliards d’années, les températures équatoriales du sol étaient à peu près les mêmes qu’aujourd’hui, malgré une constante solaire inférieure de 20 à 30% à ce qu’elle est aujourd’hui. Sagan et Mullen [31] y ont fait référence sous le nom de « Early Faint Sun Paradox » (paradoxe du soleil faible ancien). La plupart des tentatives pour expliquer cela se sont appuyées sur des niveaux divers gaz à effet de serre, mais, comme l’ont montré Rondanelli et Lindzen [29], il est facilement expliqué par les rétroactions négatives des nuages de cirrus de niveau supérieur, comme cela a été constaté précédemment par Lindzen et al. [21]. 3. Qu’est-ce qui a déterminé les différences de température du sol de l’équateur au pôle ? Ici, on pensait généralement que le processus dynamique responsable du transfert de chaleur nord-sud était impliqué. Le processus est ce qu’on appelle l’instabilité barocline [12, 20, 26] (et essentiellement tous les manuels sur la dynamique des fluides en géophysique), et la pensée conventionnelle était que la différence de température résultait de l’équilibration de cette instabilité où l’état moyen se rapproche d’un état neutre vis-à-vis de cette instabilité. Le casse-tête, cependant, était de savoir comment il pouvait y avoir différentes équilibrations pour différents climats. La première tentative pour déterminer l’état d’équilibre a utilisé ce qu’on appelle l’approximation à deux couches dans laquelle l’atmosphère est approximée par 2 couches. Dans les systèmes en rotation comme la Terre, il existe une forte proportionnalité entre le cisaillement vertical du vent et le gradient de température horizontal. C’est ce qu’on appelle la relation du vent thermique. Dans le modèle à deux couches, il existe un cisaillement critique pour l’instabilité barocline et une différence de température méridienne associée entre les tropiques et le pôle qui s’est avérée être de 20 °C [19], qui est la valeur durant l’Éocène. En présence de neige et de glace, le profil de température vertical affiche ce que l’on appelle l’inversion arctique où, au lieu de la diminution habituelle de la température avec l’altitude, la température augmente en fait avec cette altitude. Cette inversion augmente considérablement la stabilité statique de l’atmosphère sous la tropopause et, comme suggéré par Held et Suarez [9], cela devrait réduire le transport thermique méridien. Cela semble expliquer les différences de température entre les tropiques et les pôles au cours du présent et des grandes glaciations.

La situation lorsque l’on considère une atmosphère continue au lieu du modèle à deux niveaux est beaucoup plus difficile à traiter. L’équilibration, dans ce cas, détermine la pente de la surface iso-entropique reliant la surface tropicale à la tropopause polaire [17] tout en laissant ambigu le champ de température en dessous de cette surface. L’équilibration se réfère simplement à ce que les instabilités barocliniques tentent de produire. L’entropie dans l’atmosphère est décrite par ce qu’on appelle la température potentielle. Il s’agit de la température qu’aurait une parcelle d’air si elle était abaissée adiabatiquement à la surface (là où la pression est plus élevée). Un isentrope originaire de la surface sous les tropiques s’élèvera à l’approche du pôle et déterminera essentiellement la température à la tropopause au-dessus du pôle. Selon Jansen et Ferarri [17], cela, à son tour, détermine la différence de température des tropiques au pôle à la hauteur de la tropopause polaire (environ 6 km), et cette valeur est d’environ 20 °C. Quand on regarde le climat d’aujourd’hui, on voit que la différence de température pôle-équateur à l’altitude de la tropopause polaire est en fait d’environ 20 °C [24]. L’existence de l’inversion arctique fait que les différences de température de surface entre les tropiques et le pôle sont plus importantes qu’elles ne le sont à la tropopause.

Encore une fois, l’explication actuellement répandue a une vision différente de cette situation. La physique a fini par être associée exclusivement à l’effet de serre amplifié par la rétroaction positive supposée de la vapeur d’eau. La variation de la différence de température entre l’équateur et le pôle a été attribuée à une certaine «amplification polaire» imaginaire, selon laquelle la température pôle-équateur suivait automatiquement la température moyenne [11]. Bien que l’analogie ne soit guère exacte, elle n’est pas si différente de l’hypothèse selon laquelle le débit d’eau dans une conduite dépend de la pression moyenne plutôt que du gradient de pression. En effet, il a été noté que certains modèles importants affichent à peine cette amplification polaire [18], tandis que les tentatives de modélisation de l’Éocène en augmentant simplement le CO2 aboutissent souvent à la distribution de température équateur-pôle d’aujourd’hui qui est uniformément augmentée [2, 13]. En ce qui concerne l’Éocène, cela a conduit à un réchauffement équatorial beaucoup plus important que celui observé dans les modèles.

L’un des résultats les plus insidieux de l’hypothèse que le changement de la température de l’équateur au pôle est une conséquence automatique du réchauffement climatique a été l’affirmation selon laquelle les données du paléoclimat impliquent une sensibilité climatique très élevée. Un traitement simpliste (schématique) des contributions séparées de l’effet de serre et des changements produits dynamiquement de la différence de température de l’équateur au pôle à la température moyenne mondiale illustre ce problème. La Figure 2 illustre la situation où x = sin (φ), φ latitude, x1 est l’étendue méridionale de la circulation de Hadley qui homogénéise efficacement horizontalement la température tropicale [10], les tropiques et la différence de température δT2 équateur-pôle.

Capture d’écran 2020-06-25 à 16.09.25

Notez que ΔT1 est le réchauffement des tropiques, tandis que Δ(δT2) est le changement de la différence de température de l’équateur au pôle. Alors que ΔT1 reflète la sensibilité au forçage et aux rétroactions de serre (c’est-à-dire radiatives), Δ(δT2) n’en a pas besoin, surtout lorsque ce dernier facteur est beaucoup plus grand que le premier. Toutes les tentatives d’estimation de la sensibilité au climat à partir des données paléo (du moins pour autant que je sache) ne parviennent pas à distinguer les deux et à attribuer les deux contributions au forçage à effet de serre dans l’estimation de la sensibilité au climat. Cela pourrait être une erreur majeure.

Capture d’écran 2020-06-25 à 16.11.21.png

Par exemple, en l’absence de forçage à effet de serre, ΔT1 pourrait être nul, alors qu’il pourrait toujours y avoir une contribution de Δ(δT2), ce qui conduirait bien sûr à un changement de la température moyenne mondiale. Ceci, à son tour, conduirait à la fausse conclusion que la sensibilité était infinie. Plus réaliste encore, si la sensibilité du climat au forçage radiatif était très faible, les contributions de Δ(δT2) pourraient encore conduire à conclure à tort que la sensibilité était grande [8].

Remarques finales

Comme indiqué dans la Section 2, il est peu plausible qu’un système aussi complexe que le système climatique avec de nombreux degrés de liberté soit résumé de manière significative par une seule variable (anomalie de la température moyenne mondiale) et déterminé par un seul facteur (le niveau de CO2 dans l’atmosphère). À titre d’exemple, nous avons montré dans la Section 4, que la physique différente associée aux températures tropicales (c’est-à-dire le forçage radiatif, y compris les rétroactions radiatives) et à la différence de température équateur-pôle (c’est-à-dire le transport hydrodynamique via les instabilités barocliniques) entraîne toutes deux des changements dans la température moyenne mondiale. Cependant, cela ne signifie pas que les changements de la température moyenne mondiale provoquent des changements dans la différence de température de l’équateur au pôle. Ce bref article s’est concentré sur un seul exemple de cas où l’hypothèse d’un contrôle à variable unique peut conduire à un résultat erroné. Cependant, la question de la sensibilité, même lorsqu’elle est limitée au rayonnement, est encore sujette à de nombreuses possibilités, et il y a de bonnes raisons de supposer que la composante radiative de la sensibilité est, elle-même, exagérée dans la plupart des modèles actuels. Une discussion séparée de cette question peut être trouvée dans Lindzen [22].

Fait intéressant, même ceux d’entre nous qui rejettent l’alarme climatique (y compris moi) se sont concentrés sur l’image de la serre malgré le fait que cela ne soit pas le facteur majeur du changement climatique historique (sauf, dans le cas, d’une faible sensibilité, pour expliquer la stabilité des températures équatoriales). C’est-à-dire que nous avons accepté la prémisse de base de l’image conventionnelle : à savoir que tous les changements de température moyenne mondiale sont dus au forçage radiatif. Bien que la compréhension de ce récit soit un élément crucial dans une bataille politique, il ne devrait pas être autorisé d’ignorer le raisonnement scientifique.

Article de Richard S. Lindzen paru le 3 juin 2020 dans The European Physical Journal Plus ( https://doi.org/10.1140/epjp/s13360-020-00471-z ) aimablement communiqué par l’auteur sur ma demande. Je l’ai informé de la traduction en français avant de la faire figurer sur mon blog.

Références

  1. A. Abe-Ouchi, F. Saito, K. Kawamura et al., Insolation-driven 100,000-year glacial cycles and hysteresis of ice-sheet volume. Nature 500, 190–193 (2013). https://doi.org/10.1038/nature12374
  2. E.J. Barron, W.M. Washington, Warm cretaceous climates: high atmospheric CO2 as a plausible mech- anism in the carbon cycle and atmospheric CO2, in Natural Variations Archean to Present, ed. by E.T. Sundquist, W.S. Broecker (American Geophysical Union, Washington, 1985). https://doi.org/10.1029/ GM032p0546
  3. J.S.Boyle,UpperlevelatmosphericstationarywavesinthetwentiethcenturyclimateoftheIntergovern- mental Panel on Climate Change simulations. J. Geophys. Res. 111, D14101 (2006). https://doi.org/10.1 029/2005JD006612
  4. J.S.Callendar,Theartificialproductionofcarbondioxideanditsinfluenceontemperature.Proc.R.Met. Soc. (1938). https://doi.org/10.1002/qj.49706427503
  5. CLIMAP Project Members, The surface of the ice-age earth. Science 191(4232), 1131–1137 (1976). https://doi.org/10.1126/science.191.4232.1131
  6. R.S.Edvardsson,K.G.Karlsson,M.Engholmoe,Accuratespinaxesandsolarsystemdynamics:climatic variations for the Earth and Mars. Astron. Astrophys. 384, 689–701 (2002). https://doi.org/10.1051/000 4-6361:20020029
  7. A. Ganopolski, V. Brovkin, Simulation of climate, ice sheets and CO2 evolution during the last four glacial cycles with an Earth system model of intermediate complexity. Clim Past 13, 1695–1716 (2017)
  8. G. Genthon, J.M. Barnola, D. Raynaud, C. Lorius, J. Jouzel, N.I. Barkov, Y.S. Korotkevich, V.M. Kotlyakov, Vostok ice core: climatic response to CO2 and orbital forcing changes over the last climatic

    cycle. Nature 329, 414–418 (1987)

  9. I.M.Held,M.Suarez,Atwo-levelprimitiveequationatmosphericmodeldesignedforclimaticsensitivity

    experiments. J. Atmos. Sci. 35, 206–229 (1978)

  10. I.M.Held,A.Y.Hou,Nonlinearaxiallysymmetriccirculationsinanearlyinviscidatmosphere.J.Atmos.

    Sci. (1980). https://doi.org/10.1175/1520-0469(1980)037%3c0515:nascia%3e2.0.co;2

  11. M.Holland,C.M.Bitz,Polaramplificationofclimatechangeincoupledmodels.Clim.Dyn.21,221–232

    (2003). https://doi.org/10.1007/s00382-003-0332-6

  12. J.R.Holton,G.J.Hakim,AnIntroductiontoDynamicMeteorology(AcademicPress,Cambridge,2012),

    p. 552

  13. M.Huber,L.C.Sloan,Warmclimatetransitions:ageneralcirculationmodelingstudyoftheLatePale-

    ocene thermal maximum (about 56 Ma). J. Geophys. Res. Atmos. 104, 16633–16655 (1999). https://doi.

    org/10.1029/1999JD900272

  14. J.Imbrie,K.P.Imbrie,IceAges:SolvingtheMystery(Macmillan,London,1979),p.244
  15. IPCCAR5-Box5.1(2013),https://www.ipcc.ch/report/ar5/wg1/
  16. IPCCSR15(2018),https://www.ipcc.ch/site/assets/uploads/sites/2/2019/06/SR15_Headline-statements.

pdf

  1. M. Jansen, R. Ferarri, equilibration of an atmosphere by adiabatic eddy fluxes. J. Atmos. Sci. (2013).

    https://doi.org/10.1175/JAS-D-13-013.1

  2. M.I.Lee,M.J.Suarez,I.S.Kang,I.M.A.Held,D.Kim,Amoistbenchmarkcalculationfortheatmospheric general circulation models. J. Clim. 21, 4934–4954 (2008). https://doi.org/10.1175/2008jcli1891.1
  3. R.S.Lindzen,B.Farrell,Theroleofpolarregionsinglobalclimate,andtheparameterizationofglobal

    heat transport. Mon. Weather Rev. 108, 2064–2079 (1980)

  4. Lindzen,R.S.(1990).DynamicsinAtmosphericPhysics,CambridgeUniv.Press,324pages
  5. R.S.Lindzen,M.-D.Chou,A.Y.Hou,DoestheEarthhaveanadaptiveinfrarediris?Bull.Am.Meteorol.

    Soc. 82(3), 417–432 (2001)

  6. Lindzen, R.S. (2019), http://co2coalition.org/wp-content/uploads/2019/12/Lindzen_On-Climate-

    Sensitivity.pdf

  7. M.Milankovitch,KanonderErdbestrahlungundseineAndwendungaufdasEiszeiten-problem(R.Ser- bian Acad, Belgrade, 1941)
  8. R.E. Newell, J.W. Kidson, D.G. Vincent, G.J. Boer, The Circulation of the Tropical Atmosphere and Interactions with Extratropical Latitudes, vol. 1 (M.I.T. Press, Cambridge, 1972)
  9. P.N. Pearson, B.E. van Dongen, C.J. Nicholas, R.D. Pancost, S. Schouten, J.M. Singano, B.S. Wade, Stable warm tropical climate through the Eocene Epoch. Geology 35(3), 211–214 (2007). https://doi.org/ 10.1130/G23175A.1
  10. J.Pedlosky,GeophysicalFluidDynamics(Springer,Berlin,1992),p.710
  11. R.L.Pfeffer(ed.),DynamicsofClimate:TheProceedingsofaConferenceontheApplicationofNumerical

    Integration Techniques to the Problem of the General Circulation held October 26–28, 1955 (Pergamon

    Press, Oxford, 1960), p. 154

  12. G.Roe,IndefenseofMilankovitch.Geophys.Res.Lett.(2006).https://doi.org/10.1029/2006GL027817
  13. R. Rondanelli, R.S. Lindzen, Can thin cirrus clouds in the tropics provide a solution to the faint young

    Sun paradox? J. Geophys. Res. 115, D02108 (2010). https://doi.org/10.1029/2009JD012050

  14. W.F.Ruddiman,Ice-drivenCO2feedbackonicevolume.Clim.Past2,43–55(2006)
  15. C. Sagan, G. Mullen, Earth and Mars: evolution of atmospheres and surface temperatures. Science

    177(4043), 52–56 (1972)

  16. N.Shackleton,A.Boersma,TheclimateoftheEoceneocean.J.Geol.Soc.Lond.138,153–157(1981)
  17. K.E. Trenberth, J.T. Fasullo, J. Kiehl, Earth’s global energy budget. Bull. Am. Meteorol. Soc. 90(3),

    311–323 (2009). https://doi.org/10.1029/GM032p0546

 

CO2 ? L’IPCC a menti depuis le début au monde entier !

Dans l’article controversé du Docteur Hermann Harde paru en février 2017 dans la revue Global and Planetary Change (voir le DOI), il est écrit en introduction, je cite :

« Dans le 5e Assessment Report (AR5, 2013) de l’IPCC on peut lire (AR5-Chap. 12-FAQ 12.3, p. 1107) : la température globale ne devrait pas répondre rapidement aux changements de concentration des gaz à effet de serre (…) Éliminer les émissions de CO2 conduirait seulement à une stabilisation des températures pendant de nombreux siècles (en raison des émissions passées). En conséquence de la large inertie du climat et du cycle du carbone, la température globale sur le long terme est largement contrôlée par les émissions totales de CO2 qui se sont accumulées au cours des années passées, quel que soit la date de ces émissions. »

Il est donc clair que l’IPCC considère que la Terre accumule de la chaleur mais aussi que l’atmosphère est un réservoir important de CO2 qui accumulera pendant des siècles ce dernier, ceci expliquant la réponse très lente de la température à tout changement de concentration de CO2.

Comme les lecteurs le savent bien je ne suis pas un spécialiste du climat mais j’ai tout de même voulu, comme on dit, en avoir le coeur net, car cette histoire de siècles de persistance du CO2 m’a un peu surpris.

Le Docteur Harde, après avoir étudié scrupuleusement le devenir du CO2 dans l’atmosphère et les océans avait conclu que le temps de résidence (on dit « demi-vie ») de toute nouvelle molécule de CO2 émise dans l’atmosphère par l’activité humaine ou naturellement par la biomasse en général était, au mieux, de 4 ans et que la contribution au pool de CO2 total atmosphère-océans par l’activité humaine utilisant des combustibles fossiles ne représentait que 4,3 % de ce pool. D’où la controverse féroce qui suivit la publication de son travail. Les tenants inconditionnels des thèses de l’IPCC se sont élevés contre les conclusions du Docteur Harde. Comme n’importe quel scientifique devrait le faire, je suis allé chercher dans Wikipedia s’il n’y avait pas des faits contredisant les propos du Docteur Harde. Et je me suis souvenu de la « Bombe atomique » …

Quand j’étais jeune adolescent, tous les aléas météorologiques comme par exemple un épisode de sirocco qui remonta jusqu’à la région lyonnaise, je crois me souvenir en 1961 (je n’ai pas pris la peine de vérifier) suivi de l’effroyable hiver 1962 étaient provoqués par la bombe. On disait : « c’est à cause de la bombe ! ». Depuis la fin de la seconde guerre mondiale, après les bombardements d’Hiroshima et Nagasaki les puissances nucléarisées ont procédé jusqu’en 1963 à 575 essais atomiques dans l’atmosphère. Entre 1958 et 1962 ce fut un véritable feu d’artifice infernal puisque les Américains, les Soviétiques, les Anglais et les Français négociaient un traité interdisant les essais atmosphériques.

Chacun de ces essais nucléaires a généré du carbone-14 retrouvé dans l’atmosphère sous forme de CO2. Il en résulta une incroyable augmentation de la teneur en carbone-14 dans l’atmosphère coïncidant avec la signature de ce traité. La formation de carbone radioactif par les essais nucléaires est sensiblement identique à celle produite naturellement par les rayons cosmiques. En effet quand une molécule d’azote (N2) entre en collision avec un neutron cosmique de haute énergie, le noyau d’un des atomes d’azote de cette molécule incorpore ce neutron, éjecte un noyau d’hydrogène (rayon beta relativiste) et se désolidarise de la molécule N2 sous forme d’un radical C . qui est immédiatement oxydé en CO2 par l’oxygène. Comme je n’avais rien compris à l’article du Docteur Harde, parsemé d’équations mathématiques compliquées – mes notions de math se sont évanouies avec les années – alors j’ai entrepris une petite recherche sur internet.

Je me suis souvenu d’une conférence enregistrée au Musée de l’Homme sur les techniques de datation utilisées en paléontologie. Il en existe beaucoup mais, dans mon idée, j’ai retrouvé cette fameuse courbe montrant l’augmentation incroyable de l’abondance de carbone-14 dans l’atmosphère au cours de la période 1955-1963 due aux essais atmosphériques des joujoux militaires tant des Américains que des Soviétiques. Cette course folle provoqua une réaction de sagesse de la part des protagonistes qui s’accordèrent finalement à interdire les essais nucléaires atmosphériques en 1963. Les pays nucléarisés de l’époque se réservèrent tout de même, dans cette course folle vers l’apocalypse, le droit de procéder à des essais souterrains (sans commentaire).

Sur le site de l’Université d’Heidelberg j’ai fini par retrouver la courbe décrivant la présence du CO2 radioactif dans l’atmosphère. Sa version originale figure dans la thèse de doctorat de Vago Hesshaimer soutenue en 1997 par devant l’Université d’Heidelberg :

Capture d’écran 2019-07-06 à 17.24.30.png

Que dit cette courbe, outre le fait qu’il existe quelques différences entre le CO2 radioactif présent dans l’atmosphère en moyenne et dans la stratosphère ? Laissons de côté le fait que du CO2 radioactif est produit en permanence par les rayons cosmiques et que les paléontologues doivent se conformer à des calibrations complexes pour dater leurs morceaux d’ossements et de charbon de bois (lire ci-après). Ne considérons comme le fit Hesshaimer que cette anomalie « militairement isotopique » qui atteignit entre les années 1955 et 1963 – juste avant la mise en place du traité d’interdiction des essais atmosphérique les militaires avaient vraiment mis le « paquet » car ils étaient très pressés – cinq fois la teneur naturelle de carbone-14, en quelque sorte une expérience classique chez les biologistes qui cherchent à savoir ce que devient un métabolite en le « marquant » avec du carbone-14 mais cette fois c’était en « vraie grandeur », à l’échelle planétaire.

Je passe sur tous les autres isotopes radioactifs que les personnes de ma génération ont ramassé à pleine bouche et pleins poumons durant ces années de folie, du genre strontium, césium, bismuth, krypton, baryum, iode et même étain radioactifs ! Aujourd’hui c’est l’omerta, les militaires, c’est-à-dire les gouvernements des nations nucléarisées, ne veulent pas qu’on en parle, ça fait désordre. Mais paradoxalement il y a tout de même un avantage sur le plan scientifique à tirer de cette courbe. Je me suis amusé à l’agrandir sur l’écran de mon iMac (je ne fais aucune publicité) et j’ai pris un double décimètre pour calculer la demi-vie du CO2 (qu’il soit radioactif ou non, peu importe) dans l’atmosphère. La demi-vie de résidence est le temps qu’il faut pour que la moitié de ce CO2 disparaisse, à ne pas confondre avec la demi-vie ou période d’un élément radioactif. D’ailleurs comme la « demi-vie » du Carbone-14 est de 5730 ans il est totalement hors de propos de la considérer ici.

Faites comme moi avec un double-décimètre et vous trouverez à peu près 4 ans ! Ceci veut dire qu’en 8 ans il reste au mieux 10 % du CO2 émis par l’activité humaine en brûlant des combustibles fossiles ou par les processus naturels de respiration de la biomasse. Cette simple observation étant prise en considération il est alors vraiment difficile d’être en accord avec les hypothèses de l’IPCC. Je ne peux pas imaginer un seul instant que ces « scientifiques » de l’IPCC aient eu une totale méconnaissance de ces données évidentes relatives au CO2 radioactif dans l’atmosphère dues aux essais nucléaires ! Elles figurent dans l’article de Wikipedia sur ces essais nucléaires ! N’importe qui peut les consulter. Les paléontologues, se penchant sur ce phénomène provoqué par la paranoïa des militaires, ont constaté que, compte tenu du fait que le principal réservoir de CO2 était constitué par les océans, 60 à 70 fois plus que l’atmosphère, ils ont alors corrigé leurs datations concernant les populations se nourrissant surtout de poissons et d’autres produits de la mer car sans correction ils les auraient daté systématiquement comme étant « plus jeunes ». En effet, les poissons contiennent en moyenne 60 fois plus de C-14 que par exemple de la viande terrestre !

Ce billet est l’illustration d’un assemblage de diverses informations provenant de disciplines totalement différentes. Ma curiosité est toujours exacerbée quand je détecte quelque chose d’anormal alors que, je le répète, je ne suis ni un spécialiste du climat, ni un spécialiste des datations au C-14, mais seulement un modeste ex-biologiste ayant utilisé du C-14 pour étudier des voies métaboliques. Voilà, je le crois modestement, une démonstration évidente de la forfaiture de l’IPCC et je pense que le Professeur François Gervais ne me contredira pas.

Carbon14_with_activity_labels.svg.png

Je termine ce propos en soulignant que la production naturelle de carbone-14 dans l’atmosphère par les rayons cosmiques n’est pas tout à fait constante. Les paléontologues ont été contraints pour affiner leurs datations d’effectuer des corrections parfois complexes à l’aide d’autres techniques de datation. Après avoir traité l’anomalie provoquée par les essais nucléaires le dosage du carbone-14 présent dans les arbres et précisément dans chaque cerne de croissance de ces arbres (dendrochronologie) les physiciens ont pu construire une courbe montrant les variations de la teneur en carbone-14 au cours du millénaire passé. Ce qu’ils ont découvert constitue une preuve supplémentaire de la modulation du bombardement cosmique atteignant la Terre par l’activité solaire : plus l’activité magnétique du soleil est élevée moins il y a de carbone-14 généré par ces rayons cosmiques dans l’atmosphère. En inversant l’échelle verticale on obtient une belle représentation des variations de l’activité solaire au cours des siècles passés. Ces variations de l’activité solaire ont ainsi obligé les paléontologues à effectuer des corrections pour réaliser leurs datations avec le carbone-14 de manière fiable mais sans jamais pouvoir remonter au delà de 50000 ans en raison de la « demi-vie » de ce radioisotope.

Je remercie le Docteur Harde qui a eu la gentillesse de me communiquer l’article relatif à la demi-vie du CO2 dans l’atmosphère dont voici le doi :

http://dx.doi.org/10.1016/j.gloplacha.2017.02.009 , thèse de doctorat de Vago Hesshaimer, 1997, Université d’Heidelberg et J. Geophysical Research, vol.105-D9, p.11641-11658, May 16, 2000. Dernière figure : Wikipedia

La magie de l’eau …

Ce billet n’a pas la prétention d’être un cours de physique. Il rassemble en une prose compréhensible pour tous divers éléments recueillis dans la littérature scientifique qui permettent de comprendre pourquoi la Terre n’est pas une planète morte. D’abord la seule source d’énergie sous forme de chaleur dont dispose la Terre provient du Soleil et pourtant les divers gaz constituant la mince couche de l’atmosphère entourant la Terre sont essentiellement transparents aux rayons infra-rouge mis à part la vapeur d’eau. L’oxygène piège quant à elle les rayons ultra-violets dans les hautes couches de l’atmosphère, mais c’est une autre histoire. Alors puisque l’atmosphère est transparent aux rayons infra-rouge, me direz-vous, qu’est-ce qui réchauffe l’atmosphère terrestre ? La réponse est évidente et limpide : ce sont tout simplement les océans qui recouvrent plus de 70 % de la surface de la Terre !

Ah bon, et comment ? L’atmosphère contient entre 0,4 et 4 % de vapeur d’eau, soit de 10 à 100 fois plus que de gaz carbonique selon les zones du globe où on se trouve. Or l’eau est un composé chimique particulier qui requiert une formidable quantité d’énergie pour « changer d’état » (ou de phase) et c’est là que réside le secret de la Terre, secret jalousement unique dans notre système solaire.

Reprenons notre raisonnement : le Soleil chauffe directement les océans qui paraissent parfaitement noirs vus de l’espace mais aussi du huitième pont d’un gros navire, et c’est vrai. Les océans ne sont pas bleus, ils paraissent bleus parce qu’ils réfléchissent la couleur bleue de l’atmosphère. Les océans sont donc de formidables pièges pour l’énergie provenant du Soleil sous forme de chaleur, le destin final des rayons infra-rouges solaires.

Mais d’une façon ou d’une autre les océans doivent de débarrasser de toute cette chaleur car ils auraient fini par bouillir un jour … et c’est là qu’intervient le côté magique de l’eau.

En effet il faut beaucoup d’énergie pour vaporiser un litre d’eau : 2,25 millions de joules ou encore 9400 kiloCalories ou encore 610 Wh, trois unités physiques différentes pour l’énergie. Quand la vapeur d’eau s’élève dans l’atmosphère elle va avoir tendance à se condenser en gouttelettes qui vont former des nuages puisque, comme chacun a pu le constater, l’air devient plus frais au fur et à mesure qu’on gravit une montagne et c’est vrai aussi au niveau de l’Equateur, j’en ai moi-même fait l’expérience dans l’île d’Hiva-Oa aux Marquises. Au cours de ce deuxième « changement de phase » toute l’énergie en quelque sorte dépensée par l’océan pour vaporiser cette eau est intégralement restituée à l’atmosphère en vertu du premier principe de la thermodynamique. L’atmosphère, par voie de conséquence, se réchauffe quand des nuages se forment à partir de vapeur d’eau. Les nuages sont en réalité des aérosols constitués de petites gouttelettes d’eau et si pour une raison ou pour une autre, l’atmosphère n’étant jamais parfaitement immobile, ces nuages rencontrent des couches atmosphériques plus froides, alors ces gouttelettes se transforment en glace et là encore ce troisième « changement d’état » de l’eau, cette fois de liquide vers solide, restitue de l’énergie à l’atmosphère, certes beaucoup moins mais malgré tout à hauteur de 15 % de la quantité d’énergie restituée par le changement de phase de gaz vers liquide. Et encore une fois l’atmosphère se réchauffe !

Au final ce sont les océans qui chauffent l’atmosphère et non pas le Soleil comme on aurait tendance à le croire. Certes cette observation est contre-intuitive mais c’est pourtant la réalité et ce n’est possible que grâce à la vapeur d’eau …

Il reste un petit point de la magie de l’eau qu’il ne faut pas oublier de mentionner : la glace. Dans les hautes couches de l’atmosphère – en gros au delà de 5000 mètres d’altitude – les micro-cristaux de glace font office de miroir et réfléchissent le rayonnement infra-rouge en provenance du Soleil mais si la glace était plus lourde que l’eau liquide, que se passerait-il ? Il n’y aurait tout simplement pas de vie évoluée sur la Terre ! En effet les océans seraient gelés en permanence à l’exception d’une fine couche d’eau à leur surface : les océans ne seraient plus noirs mais blancs et ils réfléchiraient parfaitement le rayonnement infra-rouge solaire, l’atmosphère serait irrémédiablement froid et la Terre serait une planète inhospitalière … Voilà en très bref les bienfaits de la magie de l’eau.

Illustration : un nuage « vertical » surmonté de cristaux de glace pris en photo depuis le balcon de mon modeste logement il y a quelques jours

Le très gros mensonge des tenants du réchauffement climatique d’origine humaine

Le très gros mensonge des tenants du réchauffement climatique d’origine humaine

Ce billet est un peu technique mais il démontre que les hypothèses de réchauffement du climat formulées par l’IPCC liées au gaz carbonique atmosphérique (CO2) sont non seulement extravagante mais de plus erronées. La Terre n’est pas un disque orienté vers le Soleil mais une sphère et l’énergie sous forme de photons provenant du Soleil se répartit donc pour atteindre une valeur moyenne de 340 Watt par mètre-carré à la surface de la Terre. Les photons infra-rouges réémis par le sol ne parcourent qu’au plus une soixantaine de mètres en direction du ciel car ils sont piégés par les molécules de gaz atmosphériques, que ce soient l’oxygène, l’azote, la vapeur d’eau et dans une bien moindre mesure le CO2. Ces mêmes molécules, après avoir été excitées par un photon infra-rouge réémettent un autre photon infra-rouge de plus grande longueur d’onde, donc de moindre énergie, dans toutes les directions car une partie de l’énergie des premiers photons a été dissipée sous forme de mouvement de ces molécules lors de la collision initiale. Les photons dirigés vers l’espace vont à leur tour exciter d’autres molécules de gaz et ainsi de suite. Quant aux photons qui reviennent vers le sol il n’ont que peu de chance d’interagir avec des molécules de gaz déja dans un état excité trop énergétique. Quand bien même ils interagiraient avec ces dernières il y aurait à nouveau perte d’énergie et ce processus en cascade résulte finalement en une perte d’environ 50 % de l’énergie de chaque photon.

À cette dynamique concernant strictement les seuls photons infra-rouges l’énergie thermique est évacuée vers les plus hautes couches de l’atmosphère par la vapeur d’eau. L’eau, compte tenu de ses caractéristiques physiques, change d’état avec l’altitude et le gradient adiabatique résultant de la gravitation terrestre qui induit un gradient de température décroissant avec l’altitude. La vapeur d’eau en se condensant libère de l’énergie qui va à son tour exciter les molécules d’azote et d’oxygène. Ces molécules émettront à leur tour un photon infra-rouge et le processus continue jusqu’à atteindre les hautes couches de l’atmosphère où il ne reste plus que de rares micro-cristaux de glace qui ne participent plus à cet échange d’énergie bien que pouvant encore capter un photon infra-rouge d’énergie trop faible pour modifier l’état de la glace, c’est-à-dire de la faire fondre dans un environnement atmosphérique où les températures atteignent des valeurs avoisinnant les moins 50 degrés centigrade.

Tous ces processus sont connus et bien étudiés. Les vents et les mouvements de vapeur d’eau ainsi que les changements d’état de l’eau de vapeur en goutelettes constituent un puissant véhicule de dissipation de l’énergie thermique atteignant la surface terrestre. L’IPCC a sciemment ignoré les effets de la vapeur d’eau sur l’équilibre thermique de la Terre. Qui plus est, les proportions entre eau et gaz carbonique atmosphériques sont telles – un rapport d’environ 8 à 10 pour 1 selon l’endroit où on se trouve – que si la teneur en CO2 doublait la température moyenne à la surface de la Terre n’augmenterait que de 0,01 degrés !

La Terre, chauffée par le Soleil en moyenne 12 heures par jour, est donc du fait de la présence de vapeur d’eau dans l’atmosphère en équilibre thermique avec l’espace. « L’impression » de chaleur au sol est seulement la résultante du gradient adiabatique gravitationnel sur la colonne d’air pesant environ 10 tonnes par mètre-carré et la conséquence des radiations infra-rouges émanant du sol. Sans surprise et pour ces deux raisons les basses couches de l’atmosphère sont plus chaudes que les plus hautes couches de celle-ci. Introduire la notion d’effet de serre est donc erroné car ce n’est pas ainsi que l’atmosphère fonctionne. Les théoriciens de l’effet de serre ont oublié la dynamique de l’atmosphère, les vents et surtout la vapeur d’eau ! Avec une planète dont près de 70 % de la surface est recouverte d’océans c’est tout de même grossier comme mensonge si on se place du point de vue strictement scientifique. N’importe quel enfant pourra constater lui-même qu’en regardant une mappemonde il en est ainsi. S’il était encore nécessaire d’apporter une autre preuve de la non-incidence du gaz carbonique sur le climat pourquoi a-t-il fait si chaud au Moyen-Age, vers les années 1000-1100, alors que la concentration en CO2 atmosphérique n’était que de 280 parties par million ? Quel scientifique auto-proclamé de l’IPCC peut donner une explication à cette simple constatation déduite de diverses analyses incontestables des proxys « climatiques » dont j’ai dit à de nombreuses reprises un mot dans ce blog ?

Le Docteur Dai Davies de l’Université de Canberra dont je me suis largement inspiré pour écrire ce billet est formel, le CO2 n’a qu’un effet négligeable sur le climat terrestre et ce gaz n’est pas toxique mais éminemment bénéfique pour la biosphère. Dit plus abruptement sans CO2 dans l’atmosphère il n’y aurait aucune vie sur la Terre. Les principaux processus d’immobilisation du CO2 atmosphérique sont l’eau des océans et le phytoplancton, source de toute la chaine alimentaire marine. Au sol, ce sont les végétaux qui sont la source de toute vie et sont à la racine de la chaine alimentaire terrestre. Et le Docteur Davies de préconiser avec vigueur que les protagonistes du débat relatif au climat « suivent la science afin que nous puissions rapidement mettre une fin à cette débacle climatique« . Il s’agit bien en effet d’une débacle économique qui attend de nombreux pays soumis à cette propagande incessante et mensongère au sujet du CO2. Malgré mes réflexions je n’ai pas pu identifier clairement à qui va profiter ce véritable crime contre l’humanité …

Crise climatique : retour sur l’imposture de l’effet de serre

Titan,_Earth_&_Moon_size_comparison.jpg

Le premier novembre 2014 j’avais écrit un long billet un peu technique sur le concept erroné de l’effet de serre du CO2 et d’autres gaz et mon opinion à ce sujet n’a pas changé. Il se trouve que la question négligée du gradient adiabatique de l’atmosphère terrestre soumis au champ gravitationnel de la Terre comme chacun de nous et comme tout objet « pesant » refait surface dans de nombreux articles scientifiques parus récemment dont celui cosigné par N. Nikolov et K. Zeller publié dans la revue Environment Pollution and Climate Change 2017, 1: 112. Ces auteurs ont comparé l’effet de la gravité sur l’atmosphère de Vénus, de la Terre, de la Lune, de Mars, de Titan et de Triton. Les observations astronomiques relatives à ces corps célestes sont suffisamment documentées pour précisément calculer l’effet de la gravité de ces derniers sur leurs atmosphères parfois très ténus mais tout de même étudiés en détail. Titan est une « lune » de Saturne et Triton une « lune » de Neptune. Toutes les lois physiques qui sont naturellement applicables et valables pour les différents corps célestes du système solaire conduisent, lorsque l’on prend en considération l’ensemble des observations relatives à ces 6 corps, à la conclusion que la théorie de l’effet de serre qui n’est pas observée sur ces corps célestes est donc invalide également pour la Terre et également Vénus quoiqu’en pensa James Hansen, l’un des malheureux promoteurs de la théorie désuète et jamais validée par l’expérience de l’effet de serre.

En effet, l’effet de serre tel qu’il est prêché par l’IPCC n’est pas un phénomène radiatif alimenté par l’opacité de l’atmosphère au rayonnements infra-rouges mais la conséquence d’un réchauffement seulement induit par le gradient adiabatique, directe conséquence du champ gravitationnel, gradient qui est indépendant de la composition de l’atmosphère. De plus, la température au sol observée pour chacun de ces corps célestes n’est pas le résultat d’un forçage radiatif comme cela a été imaginé il y a plus de 100 ans mais seulement le simple résultat de la pression atmosphérique existant au sol. L’albédo des différents corps célestes (dont la Terre) n’est pas un facteur climatique indépendant mais une conséquence du climat. Cependant cet albédo (propriété de réfléchir le rayonnement solaire aux hautes altitudes) est soumis aux variations du champ magnétique solaire et du vent solaire ainsi qu’aux rayons cosmiques.

La pression atmosphérique en tant que force par unité de surface a un effet direct sur l’énergie cinétique interne à l’atmosphère et la température du système atmosphérique (quels que soient les corps célestes cités dans cette étude) est en accord avec les lois régissant le comportement des gaz. Dès lors le gradient de pression atmosphérique est le seul facteur prépondérant contrôlant la température de surface de la planète (ou de la « lune » considérée) et non pas la « profondeur optique » de l’atmosphère aux infra-rouges qui varie de manière continue en raison également de ce gradient de pression.

L’équilibre thermique à la surface des corps célestes étudiés reste stable dans une plage de +/- 1 °C pour toutes ces raisons et bien entendu en dehors de toute variation de l’activité radiative solaire ou du champ magnétique solaire. Cette dernière activité fluctue d’ailleurs dans une plage infime de l’ordre de 2 à 3 ‰ . Cet article réfute donc l’hypothèse de l’ « effet de serre » qui n’a jamais été prouvée scientifiquement à moins de délibérément ignorer un certain nombre de lois physiques fondamentales. C’est exactement ce que les pseudo-climatologistes de l’IPCC font depuis maintenant plus de 20 ans et jamais personne n’a osé les contredire frontalement comme viennent de le faire ces deux personnalités à qui il faut rendre hommage pour leur honnêteté, leur courage et le risque qu’ils encourent de voir tous leurs crédits de recherche annulés sine die pour satisfaire des dispositions plus politiques que scientifiques totalement erronées.

Illustration : la Terre, la Lune et Titan à la même échelle (Wikipedia)

https://jacqueshenry.wordpress.com/2014/11/01/retour-sur-la-theorie-de-leffet-de-serre-atmospherique/

Le Protocole de Montréal revisité

Capture d’écran 2016-07-03 à 14.25.49.png

En 1987 fut signé le fameux protocole de Montréal introduisant le bannissement des chloro-fluoro-carbones sous prétexte qu’ils étaient destructeurs de l’ozone stratosphérique. Ce protocole fut organisé en sous-main par une major de l’industrie chimique qui disposait dans ses laboratoires de substituts aux CFCs couramment utilisés dans les réfrigérateurs, les conditionneurs d’air et les établissements de dégraissage à sec pour ne citer que ces exemples. Depuis on scrute ce trou d’ozone antarctique et il est toujours là bien que son étendue fluctue année après année. La grande nouvelle qui vient de sortir est que ce trou d’ozone aurait tendance à diminuer. En quelques années il aurait rétréci d’une surface équivalente à celle du sous-continent indien ! Une grande nouvelle bien qu’il y ait eu un petit couac avec l’éruption en 2015 du volcan chilien Calbuco qui a répandu massivement de l’oxyde de soufre (SO2) dans la haute atmosphère au dessus de l’Antarctique.

Il y a comme un doute puisque l’activité humaine émet des quantités massives de ce gaz … mais apparemment seuls les volcans ont un effet sur ce trou d’ozone.

Bref, des météorologistes et des physiciens comme par exemple du « National Center for Atmospheric Research à Boulder dans le Colorado s’activent à l’aide de modélisations (encore des subterfuges pseudo-scientifiques) pour prédire qu’en 2050, au train où vont les choses – et s’il n’y a pas trop d’éruptions volcaniques – le trou d’ozone aura complètement disparu. Merci au protocole de Montréal !

Il faut tout de même replacer cette psychose organisée à sa place. D’abord la situation des vents au sol et en altitude autour du continent Antarctique est unique. Il existe un vortex permanent qui isole la haute atmosphère du reste de la planète et créé une masse d’air relativement immobile prisonnière de ce système de vents très stable. D’autre part la teneur en ozone dépend naturellement de l’ensoleillement et de la température. Or ces deux paramètres sont beaucoup plus faibles au dessus de l’Antarctique que partout ailleurs sur Terre y compris au dessus de l’Arctique où ce vortex de vents n’existe pas avec une telle stabilité.

Capture d’écran 2016-07-03 à 14.09.10.png

Mais l’autre paramètre, ces CFCs et autres molécules chlorées ou bromées, intervenant dans la teneur en ozone atmosphérique et pris en compte dans le protocole de Montréal sont malheureusement (pour l’ozone) massivement produits par des processus bactériens naturels tant au sol que dans les océans. La production artificielle, pour faire savant on dira anthropogénique, est négligeable par rapport à cette production naturelle. Les bactéries du sol participent activement à cette production de produits halogénés volatils qui s’échappent dans l’atmosphère et contribuent, on ne sait pas trop dans quelles proportions puisqu’aucune étude sérieuse n’a été réalisée à ce sujet, à la détérioration encore très hypothétique, puisqu’appuyée seulement sur des simulations en laboratoire, de la couche d’ozone atmosphérique.

Une équipe de biologistes de l’Université de Tuebingen en Allemagne a étudié extensivement la population bactérienne du sol d’une forêt proche de l’Université. Il s’est agi d’abord d’identifier les bactéries du sol puis de retrouver par analogie de séquences d’ADN les principales activités enzymatiques susceptibles de participer au processus de formation de gaz halogénés, essentiellement le chloroforme (CHCl3) et le bromoforme (CHBr3) parmi plus de 5000 composés halogénés volatils dûment identifiés et produits par diverses activités bactériennes. Les espèces bactériennes prédominantes sont des Pseudomonas et des Bradyrhizobium. Ces bactéries possèdent des équipement spécifiques capables de transférer un ou plusieurs atomes de chlore ou de brome à toutes sortes de composés carbonés mais pas seulement ces deux halogènes puisque bien d’autres composés fluorés ou iodés ont pu également être identifiés. La production moyenne de CFCs volatils d’origine naturelle par le sol d’une forêt quelconque comme celui qui a été étudié est incroyablement élevée, de l’ordre de 3 à 8 microgrammes par kg de terre selon la profondeur de cette dernière. Ce résultat peut paraître négligeable mais il correspond à des dizaines de millions de tonnes de CFCs naturellement injectés dans l’atmosphère chaque jour quand on prend également en considération les océans !

Capture d’écran 2016-07-04 à 08.03.01.png

Alors que penser de cette gigantesque mascarade que fut le Protocole de Montréal ? Cette gesticulation mondiale n’eut pour but que de culpabiliser l’humanité entière en la préparant à l’autre pantomime ridicule du réchauffement climatique également basé sur la peur sans aucun fondement scientifique crédible. On s’achemine vers un refroidissement généralisé et durable qui va bouleverser les habitudes de vie des populations, engendrer des conflits de grande ampleur pour l’accès à la nourriture, des mouvements migratoires totalement incontrôlables, et la nature continuera à produire des CFCs, le trou d’ozone sera toujours là mais alors la peur aura trouvé une réelle justification …

Source : NASA’s Goddard Observatory, Scientific Reports doi : 10.1038/srep28958 et https://earth.nullschool.net/#current/wind/surface/level/orthographic=-2.68,-88.36,493/loc=-110.576,-51.661

COP21 : Le cas du CO2 revisité

Puisque la réunion COP21 va fixer le prix du carbone, donc le montant des taxes que tout un chacun devra payer pour sauver la planète, les papillons, les arbres et accessoirement les bipèdes taillables et corvéables à merci que nous sommes, pour le plus grand profit de puissances financières multinationales occultes, il est opportun de revenir quelques instants sur ce terrible poison – pour le climat – qu’est le gaz carbonique.

Reconsidérons l’évolution de la teneur en gaz carbonique (CO2) dans l’atmosphère durant les dernières 150 années, depuis les débuts de l’ère industrielle, puisque c’est ce gaz qui est incriminé en raison de son effet de serre putatif et constitue le socle des prédictions sur l’évolution du climat dans le futur organisées par une assemblée de personnalités toutes dévouées aux intérêts de la finance mondiale et apatride.

L’augmentation de la teneur de ce gaz dans l’atmosphère n’est pas seulement due à l’activité industrielle, la prolifération des automobiles et la production d’énergie à partir de combustibles fossiles carbonés, et de très loin. Plus de quatre-vingt-dix pour cent de tout le CO2 produit à chaque instant sur Terre n’est pas le fait de l’activité humaine mais des êtres vivants en général, dont les hommes de par leur respiration, et des cycles d’alternance jour-nuit et des saisons. Les plantes ainsi que le plancton dégagent du CO2 la nuit ! Entre les années 1930 et 2000 le Soleil a connu une activité magnétique particulièrement intense qu’on appelle l’optimum moderne. Cet optimum a, certes, provoqué la fonte des glaciers alpins par exemple, la régression des banquises et aussi une amélioration générale du rendement des récoltes conduisant à une abondance en nourriture favorisée également par les progrès techniques : le CO2 est le principal « aliment » des plantes, des coraux et du plancton photosynthétique.

La planète entière ne s’est jamais aussi bien portée depuis l’optimum climatique médiéval, la population a augmenté grâce à l’amélioration des conditions sanitaires mais aussi grâce à l’augmentation considérable de la productivité agricole. Il n’y a qu’à se remémorer la chute de la natalité française entre 1940 et 1945 car trouver de la nourriture était alors problématique. En effet, comme c’est le cas pour de nombreux animaux, la fécondité est directement corrélée à la disponibilité en nourriture et ce phénomène naturel a été particulièrement bien mis en évidence avec les populations d’oiseaux …

Cette situation actuelle d’abondance (toute relative car il y a encore près de 20 % des êtres humains qui ne mangent pas à leur faim) n’a pu être rendue possible que parce que le Soleil était particulièrement actif. Le champ magnétique solaire déviait puissamment les rayons cosmiques réduisant de ce fait la formation de micro-cristaux de glace dans les hautes couches de l’atmosphère (invisibles depuis le sol) et donc par conséquent le pouvoir de réflexion s’opposant à l’énergie solaire atteignant la surface de la Terre.

Ce n’est pas la différence de quelques watts par mètre carré atteignant la surface de la Terre entre 1900 et 1980 mesurée à l’aide d’instruments installés au sol qui a joué un rôle prépondérant dans ce réchauffement contemporain, mais bien la réduction du rayonnement cosmique dévié par le champ magnétique solaire. L’augmentation générale de la température moyenne, à peine un degré en 100 ans, a pourtant suffi à réduire la capacité des océans à dissoudre le CO2. Sa teneur a donc augmenté tout simplement en vertu d’un loi physique fondamentale dite Loi de Henry qui décrit le processus de dissolution des gaz dans l’eau en fonction de la température et de la pression. Si au cours des cent dernières années l’activité magnétique du Soleil avait été « normale » comme entre 1800 et 1900, les océans auraient pleinement joué leur rôle de puits de carbone et malgré la considérable augmentation de l’activité humaine récente, le taux de CO2 atmosphérique aurait été probablement stable, autour de 300 et quelques parties par millions. L’optimum climatique moderne (1920-1980) a donc contribué à l’augmentation de la teneur en ce gaz dans l’atmosphère dans des proportions beaucoup plus importantes que celles que l’on veut bien nous faire croire en incriminant l’activité humaine .

Durant cette période à peine 5 % de l’augmentation totale de CO2 dans l’atmosphère provient de l’activité humaine, soit environ 20 ppm sur les 400 actuelles ! Cette affirmation qui n’est pas de mon fait mais est déduite de la répartition isotopique des carbones 12 et 13 qui est différente entre le CO2 issu de la combustion du pétrole et du charbon et le CO2 issu de l’activité naturelle des êtres vivants. C’est un peu sophistiqué mais c’est pourtant la réalité, une réalité dont on se garde bien de mentionner l’évidence. Il en est de même pour l’augmentation de la teneur en méthane de l’atmosphère car ce gaz est également soluble dans l’eau et selon la même loi de Henry, l’augmentation de la température moyenne des océans de 1 degré environ a contribué largement à cet accroissement de la teneur en méthane.

L’une des conséquences de la loi de Henry également passée sous silence est la régulation de l’acidité de l’eau des océans. On veut nous faire croire que l’augmentation de la teneur en CO2 atmosphérique va avoir pour conséquence d’augmenter l’acidité des océans et les effets de cette acidité seront catastrophiques. Les coraux seront tout simplement dissous, les mollusques ne pourront plus construire leurs coquilles.

Ces déclarations alarmistes sont totalement fausses puisque les océans se sont appauvris en bicarbonate lors de la période de réchauffement climatique moderne et, toutes proportions gardées, l’ « acidité » des océans a diminué. En effet l’eau de mer est pondéralement environ trois fois plus riche en carbone sous forme de bicarbonate que ne l’est l’atmosphère sous forme de CO2 et ce ne sont que quelques parties par milliards qui font que la variation du pH de l’eau de mer n’est même pas décelable de manière fiable !

Le CO2 n’est pas un polluant mais un gaz essentiel à la vie sur la Terre et n’a rien à voir avec l’évolution du climat supposée en dépendre.

Source : « Tiny warming of residual anthropogenic CO2 » par François Gervais, DOI : 10.1142/S0217979214500957

En réponse à mon billet humoristique de trois lignes

Climat épisode 3 . Une canette de bière, un modèle de l’atmosphère terrestre ?

Il s’agit ici d’un petit essai ironique à ne pas prendre au sérieux, quoique …

Comme je suis encore curieux et pas encore gâteux (ça viendra), je me suis trouvé avec innocence presque fasciné par un phénomène très simple de physique basique qu’il m’a fallu analyser pour en déduire une signification généralisée. J’avais posé une canette de bière bien fraîche sur la table du séjour recouverte d’une plaque de verre. Comme l’air marin est naturellement humide, une condensation est apparue sur la surface de la canette, rien d’anormal. Mais lorsque j’ai levé le coude pour la première gorgée de bière (je mens effrontément, ce n’étais pas du tout la première gorgée de bière de la journée) je me suis aperçu qu’un rond de gouttelettes d’eau se trouvait maintenant sur le verre de la table, non seulement au niveau du cercle de contact direct de la plaque de verre avec le fond concave de la canette mais un cercle complet de condensation. J’ai pris un mouchoir en papier et essuyé cette condensation. Comme je m’y attendais un peu, la condensation de la vapeur d’eau existait de part et d’autre de la plaque de verre de la table, en dessus, c’est-à-dire au plus près de la canette de bière, mais aussi sur la face inférieure du plateau de verre.

Que s’est-il passé ? La canette de bière fraiche a « pompé » de la chaleur en provenance de la plaque de verre pour se réchauffer et hors-mis le contact entre le verre et le bord du fond de la canette où s’est produit un transfert direct de chaleur, l’échange de chaleur dans le reste de cette surface s’est fait par rayonnement infra-rouge en provenance de la plaque de verre. L’inverse est difficile à imaginer : la plaque de verre n’a pas pu « refroidir » le fond de la canette de bière. Il y a eu transfert d’énergie de la plaque de verre se trouvant à la température ambiante, disons 27 degrés, vers le fond de la canette de bière à une température proche de 5 degrés et de ce fait la bière s’est légèrement réchauffée et par voie de conséquence la plaque de verre s’est refroidie en cédant cette énergie calorifique. Tout naturellement, la vapeur d’eau ambiante s’est condensée comme elle se condensait d’ailleurs sur les parois de la canette. Cette condensation est un phénomène physique très courant qualifié d’exothermique pour utiliser un mot savant. En d’autres termes, la vapeur d’eau, dont l’existence même a nécessité un apport d’énergie (du Soleil) pour qu’elle coexiste dans l’air avec l’azote et l’oxygène, restitue cette énergie lors de la condensation et le résultat est un réchauffement de la plaque de verre qui a auparavant cédé de l’énergie au fond plus froid de la canette de bière ainsi qu’un réchauffement de la surface cylindrique de la canette de bière. On se trouve donc dans un système où interviennent trois acteurs, deux corps solides, la plaque de verre de la table et la canette de bière, et un acteur gazeux devenant liquide, la vapeur d’eau.

Vous me direz que cet exposé paraît emberlificoté mais pas tant que ça, car c’est ce qui se passe exactement dans les phénomènes météorologiques. La canette de bière peut représenter l’atmosphère, la plaque de verre de la table la surface du sol et la vapeur d’eau le véhicule permettant de transmettre de l’énergie entre ces deux composantes. Il y a peut-être, à ce que l’on prétend, quelques parties par million de CO2 qui contribuent à ce phénomène mais c’est certainement négligeable car, en effet, pour que ce gaz puisse intervenir de manière conséquente dans le processus, il faudrait qu’il change aussi « d’état », en d’autres termes qu’il se vaporise depuis l’état solide ou qu’il se solidifie depuis l’état gazeux. Ces conditions ne sont naturellement pas réunies au niveau de la mer puisqu’elles apparaissent aux alentours de moins 78 degrés centigrades.

Pourquoi ai-je dit que la vapeur d’eau était un véhicule de transmission de la chaleur d’un corps vers un autre ? Tout simplement parce que outre le rayonnement infra-rouge provenant de la plaque de verre se trouvant à la température de la pièce, « pompé » ou absorbé – comme vous voudrez – par le fond de la canette de bière, la condensation de la vapeur d’eau contribue au réchauffement de la canette. Et comme la plaque de verre s’est refroidie en cédant de l’énergie à la canette de bière, la vapeur d’eau va contribuer à atteindre l’équilibre thermique du système. Tout se passe rigoureusement ainsi dans le système Terre-atmosphère. Les principaux mécanismes mis en jeu dans l’équilibre thermique de ce système sont les mouvements de convection de l’air chargé de vapeur d’eau et l’échange d’énergie par rayonnement infra-rouge entre la surface de la Terre et l’atmosphère chargé de vapeur d’eau, c’est mieux de le répéter. Comme la plaque de verre de la table représentant la surface de la Terre, cette dernière rayonne dans l’infra-rouge et ce rayonnement est absorbé par l’atmosphère, rayonnement qui va de proche en proche se dissiper dans l’espace. Et ce processus permet d’évacuer l’énergie reçue par la surface de la Terre en provenance du Soleil. S’il n’y avait pas de vapeur d’eau dans l’atmosphère il ferait subitement froid dès le coucher du Soleil et immédiatement très chaud dès le lever de l’astre. C’est un peu la situation dont on peut faire l’expérience au milieu d’un désert où la surface du sol se refroidit par le seul rayonnement infra-rouge émis vers les hautes couches de l’atmosphère sans arriver à maintenir une température suffisante de l’air ambiant qui est très sec car l’azote et l’oxygène absorbent très peu ce rayonnement infra-rouge qui va se perdre directement dans l’espace.

La vapeur d’eau est donc le principal véhicule « transportant » la chaleur et pour deux raisons très simples : la capacité thermique de l’eau est en effet très élevée (4,2 kJ/kg.°K) et l’enthalpie de vaporisation de l’eau est également particulièrement élevée de 40,65 kJ/mole soit 2200 kJ/kg. Ces paramètres physiques ne sont pas en eux-mêmes parlants mais ils signifient que l’eau est un excellent fluide caloporteur, d’ailleurs cette propriété est utilisée dans les machines thermiques, et il faut une quantité d’énergie importante pour faire passer l’eau de l’état liquide à l’état gazeux et cette énergie est en partie restituée au milieu ambiant quand la vapeur d’eau se condense. Enfin la tension superficielle de l’eau est extrêmement élevée ce qui favorise la formation de gouttelettes lorsque la vapeur se condense, lors de la formation des nuages notamment. Tous ces paramètres physiques de l’eau contribuent à son rôle prédominant de véhicule thermique entre l’atmosphère et le sol.

Finalement cette canette de bière posée sur une table de verre n’est qu’une petite machine thermique et c’est la vapeur d’eau ambiante qui joue pleinement son rôle afin que le système atteigne au bout d’un certain laps de temps un équilibre. C’est exactement ce qui se passe sur la Terre : la dissipation de l’énergie reçue du Soleil est assurée essentiellement par la vapeur d’eau et l’atmosphère n’est en réalité qu’une gigantesque machine thermique avec ses soupapes de sécurité comme les typhons ou les ouragans et ses orages avec éclairs dissipant l’énergie accumulée par la vapeur d’eau et provenant en majeure partie de la surface terrestre, terre ferme ou océans, après que celle-ci ait été irradiée par le rayonnement infra-rouge issu du Soleil.

Quand j’ai terminé l’écriture de ce petit billet qui n’a aucune prétention scientifique le fond de bière dans la canette était tiède, il n’y avait plus de condensation, tout était en équilibre comme l’est la Terre avec l’Espace depuis des milliards d’années …

Science et religion n’ont jamais fait bon ménage : retour sur la théorie de l’effet de serre et le réchauffement climatique, épisode 1

Il faut souffrir de notre vivant pour expier nos fautes originelles, c’est en résumé la philosophie des religions monothéistes afin d’assurer la survie de notre âme. C’est ce que nous préparent les écologistes, des souffrances, car nous sommes tous coupables de piller les ressources naturelles limitées qui nous sont offertes par la planète … Il s’agit en réalité de la résurgence d’une nouvelle religion que mettent en place insidieusement ces écologistes avec les mêmes outils qu’a utilisé pendant des siècles la religion catholique, c’est-à-dire par exemple l’Inquisition qui a conduit au bûcher Giordano Bruno parce qu’il avait osé contester le géocentrisme prôné par l’Eglise pour préserver symboliquement son pouvoir temporel. Les écologistes retournent à cet obscurantisme. Les papes défendaient la primauté cosmologique de la Terre, les écologistes veulent protéger la Terre comme un élément fini dont on ne peut pas extraire tout ce dont on a besoin de manière anarchique. De même que la religion a toujours profité de l’exploitation de la peur de l’au-delà, de même les écologistes brandissent la fin du monde, en d’autres termes il faut faire pénitence pour assurer un avenir à la planète et aux privilégiés qui échapperont à l’Armageddon planétaire climatique. En quelque sorte nous devons aujourd’hui, maintenant, tout de suite, expier nos fautes passées et à venir, une sorte de réactualisation du péché originel, nous serrer la ceinture pour préserver l’avenir de la planète. Car la planète Terre a plus d’importance aux yeux des écologistes que n’importe quel être humain …

Cette dimension planétaire que n’avaient jamais abordé les papes aux XVe et XVIe siècles – il faut préciser qu’ils prônaient la platitude de la Terre et que Rome se trouvait au centre de ce disque symbolique – les écologistes climatiques alarmistes ont repris ce concept de platitude de la Terre pour biaiser les calculs de flux du rayonnement en provenance du Soleil et je me permettrai d’en apporter une preuve (voir note) ainsi que la preuve de l’imposture de cette comédie funeste pour l’ensemble de l’humanité qu’est le réchauffement climatique proclamé par des pseudo-scientifiques dûment assermentés par les Nations-Unies (l’IPCC) pour terroriser le monde entier. La subtilité de ces pseudo-scientifiques réside dans une manipulation de la thermodynamique telle qu’elle est pourtant enseignée (encore ?) au lycée. Lorsque la Terre est éclairée, donc chauffée, par le Soleil il existe un décalage entre le maximum de la température atteinte à la surface du sol et le passage au zénith du Soleil. Pour rappel l’énergie incidente en provenance du Soleil est d’environ 1370 W/m2 lorsque le Soleil est au zénith au niveau des tropiques, c’est-à-dire lorsqu’il n’y a pas d’ombre portée, en d’autres termes lorsque le rayonnement solaire se trouve à l’exacte perpendiculaire avec la surface terrestre. Or la Terre est ronde et de plus elle tourne sur elle-même en 24 heures. En tenant compte de ces données que personne ne peut contester, à moins de risquer le bûcher comme Giordano Bruno, il se trouve que la Terre réémet à la faveur de ce cycle jour-nuit la totalité de l’énergie qu’elle a reçu en provenance du Soleil et au final la Terre se comporte immuablement comme un corps noir à la température de –18 °C.

Les tenants (ou inventeurs) de la théorie de l’effet de serre, considérant que la température de la Terre au sol se trouve être en moyenne (et il faut garder en mémoire cette fausse notion de température moyenne) de + 15 °C, il « doit » exister un « effet de serre » pour que l’on puisse constater une telle situation. Le subterfuge utilisé pour justifier l’existence d’un effet de serre a consisté à oublier que dans la réalité l’atmosphère est aussi soumise au champ gravitationnel terrestre et que par conséquent la température moyenne au sol de 15 °C s’explique par l’existence du gradient de pression et de densité de l’atmosphère en fonction de l’altitude qu’on appelle gradient adiabatique, j’en ai déjà dit un mot dans plusieurs billets de ce blog. On est effaré devant une telle ignorance du fonctionnement de l’ensemble harmonieux que constituent la Terre et son atmosphère aussi ténue que celle de Pluton dont la sonde interplanétaire de la NASA nous a gratifié il y a quelques jours de cette image surréaliste :

Capture d’écran 2015-07-26 à 21.36.42

De loin la Terre ressemble à ça. Les écologistes, Greenpeace en tête, considèrent que nous perturbons notre atmosphère en raison de notre activité industrielle délirante qui produit un gaz bénéfique pour l’ensemble du maintien de la vie, le gaz carbonique, et que ce gaz est prétendument considéré comme néfaste car il serait susceptible de perturber l’équilibre thermique de l’atmosphère. J’ai fait une récente recherche sur les effets supposés négatifs de ce gaz sur les écosystèmes. En dehors de tous les articles pseudo-scientifiques carrément orientés idéologiquement vers l’hypothèse de l’effet de serre, ce gaz est bénéfique pour tous les organismes vivants dont le métabolisme en dépend. Globalement toute forme de vie sur la Terre, y compris l’espèce humaine, est dépendante du CO2. Sans CO2 pas d’herbe, pas d’arbres, pas de fruits, pas de blé, pas de plancton donc pas de poissons, pas de coraux, et paradoxalement pas de pétrole ni de charbon dont la combustion restitue à la planète ce que la géologie a piégé avec le temps de même que les océans piègent le méthane généré par les fermentations bactériennes des boues profondes sous forme d’hydrates que l’on est sur le point d’exploiter de manière rentable. Les boues d’estuaire sont de formidables machines à fabriquer des hydrocarbures avec la collaboration de bactéries puisant leur énergie depuis le rayonnement solaire. Sans CO2 aucune vie n’est donc possible sur la Terre. Les végétaux ont paradoxalement pris du retard dans le rééquilibrage de l’atmosphère avec l’accumulation débordante d’oxygène dont ils ne peuvent rien faire. La RUBISCO, cet enzyme le plus abondant sur Terre (voir note en fin de billet) dont le rôle est de mettre à profit la présence de CO2 pour le piéger et le transformer en molécules utiles, cet enzyme fascinant est d’une rare inefficacité parce qu’il y a trop d’oxygène dans l’atmosphère !

Voici l’oubli des écologistes :

Capture d’écran 2015-07-26 à 19.35.45

Comme il fallait trouver un bouc-émissaire aux délires malthusiens de ces fanatiques d’un nouveau genre, le CO2 était et constitue maintenant le meilleur argument pour terroriser les populations. Il y avait bien eu les CFCs et la destruction de la couche d’ozone matérialisée par le fameux « trou » au dessus de l’Antarctique. Une fois l’interdiction des CFCs obtenue, le CO2 fut déclaré principal acteur de cet effet de serre qui s’explique par cette différence de température entre le sol et la température de – 18 °C du corps noir que constitue la Terre isolée dans l’espace. Si encore une fois on fait une recherche dans la littérature scientifique non caviardée par les écologistes on ne trouve aucune preuve d’un rôle majeur du CO2 dans un putatif réchauffement de la planète. On se trouve donc aujourd’hui dans une situation identique à celle des scientifiques du XVIe siècle : toute contestation du dogme du réchauffement climatique global porte atteinte aux fondements de l’église de scientologie climatique.

Rassurez-vous, vous ne grillerez pas comme des toasts (cf Christine Lagarde, Forum de Davos 2014), aux dernières nouvelles une étude très sérieuse publiée par la Royal Astronomical Society le 9 juillet 2015 et qui fera l’objet d’un prochain billet de ce blog prévoit que dès 2020-2025 la Terre entrera dans une ère glaciaire prolongée qui pourrait durer bien au delà de 2050. Tout ça en raison des fluctuations de l’activité solaire. Pour le coup le CO2 n’aura rien à voir et dès lors, si ces pseudo-scientifiques étaient logiques avec eux-mêmes ils devraient au contraire encourager la production de CO2 !

Notes :

Note 1 L’équation :

Capture d’écran 2015-07-27 à 12.20.06

décrit l’état d’un gaz, ici l’atmosphère sec composé d’azote, d’oxygène, d’argon et de quantités infinitésimales de CO2, néon, hélium, xénon et krypton, dans un champ gravitationnel, celui de la Terre. Ici g est l’accélération de la pesanteur (9,8 m/ s2) et Cp la capacité thermique du gaz (pour l’atmosphère sec 1 joule/ gramme/ °K) , la température T exprimée en °K à une altitude donnée h s’exprime par rapport à la température To mesurée à une altitude ho. Le gradient de température établi par la compression adiabatique de l’atmosphère est de l’ordre de 10 °K ou centigrades (peu importe) par kilomètre. Il ne faut pas oublier que l’atmosphère n’est pas un système figé et que les courants de convection, les vents, la vapeur d’eau et les nuages contribuent à la dissipation vers l’espace de l’énergie solaire atteignant la surface de la Terre.

Note 2 La théorie de l’effet de serre stipule que la Terre est soumise au rayonnement solaire dans son intégralité et que l’approximation consistant à considérer la partie effectivement ensoleillée de la Terre est plate, ce qui n’est valable, à un instant t de la journée quand le soleil est au zénith, que pour une surface équivalente à environ celle des USA, ce qui introduit une erreur grossière dans les calculs de température au sol. De plus, établir une moyenne diurne des températures est un non-sens scientifique car celles-ci dépendent à l’évidence de l’angle d’incidence du rayonnement solaire. Enfin négliger les phénomènes de refroidissement au cours de la nuit constitue une autre approximation encore plus grossière. En effet, comme l’illustre la figure suivante, il ne fait pas « plus chaud » quand le Soleil passe au zénith et il ne fait pas « le plus froid » à minuit mais les températures se rééquilibrant en permanence, il fait « le plus chaud » en début d’après-midi et « le plus froid » quelques heures avant l’aurore :

Capture d’écran 2015-07-27 à 13.10.46

Note 3 La RUBISCO ou ribulose 1,5 bisphosphate carboxylase catalyse la fixation d’une molécule de CO2 sur ce sucre phosphaté pour former deux molécules de 3-phosphoglycérate. L’un des 3-phosphoglycérates est dirigé vers le métabolisme général et l’autre est recyclé pour reformer du ribulose. Ce cycle dit de Calvin, rien à voir avec le Genevois du XVIe siècle, est un gros consommateur d’énergie qui est fournie par le rayonnement solaire conduisant à la cassure de l’eau pour libérer de l’oxygène et des équivalents réducteurs à la cellule photosynthétique. Ces deux voies, carboxylation et coupure de l’eau, ne coexistent pas dans le même compartiment cellulaire car l’oxygène a la fâcheuse tendance à inhiber l’activité de la RUBISCO.

Comme disait Goebbels « plus le mensonge est gros, plus il passe » …

Illustrations : Nasa, Derek Alker et Alan Siddons

Sans CO2, pas de vie et pas d’oxygène !

800px-Black-band_ironstone_(aka)

Selon les études relatives aux roches sédimentaires anciennes que l’on a coutume d’appeler roches mères ou schistes, on a pu déterminer l’apparition de la vie sous forme d’archéobactéries photosynthétiques il y a de ça 3,8 milliards d’années, l’âge de la Terre étant évaluée à 4,6 milliards d’années. Il a fallu ensuite plus d’un milliard d’années pour qu’une forme de vie organisée apparaisse et encore 500 millions d’années supplémentaires pour assister à l’explosion de formes de vie variées et de plus en plus complexes à la fin de cette longue période appelée Protérozoïque qui précède si l’on peut dire les temps modernes de la vie que les géologues appellent le Phanérozoïque. C’est un peu ésotérique mais il faut remonter loin dans le temps pour comprendre comment la vie est apparue sur Terre. Un excellent article de Wikipedia présente ces différentes périodes de l’histoire terrestre, voir l’illustration ci-dessous (voir le lien en fin de billet).

640px-Geologic_Clock_with_events_and_periods.svg

Nous vivons toujours dans la période définie comme étant le Phanérozoïque qui débute par le Cambrien, une relativement courte période d’environ 200 millions d’années durant laquelle un foisonnement incroyable de formes de vie apparaît comme en attestent les fossiles retrouvés dans les schistes qui se sont formé à cette époque. Ce que l’on sait avec un peu de certitude c’est que les formes très primitives de vie comme les archéobactéries ont conduit à l’apparition d’espèces unicellulaires plus complexes (eucaryotes) à un moment crucial de l’évolution de l’atmosphère terrestre, l’apparition de quantités suffisantes d’oxygène pour favoriser cette diversification. Dans notre esprit, qui dit vie sous-entend oxygène. Or l’atmosphère terrestre pendant près de trois milliards d’années était constitué d’azote, de vapeur d’eau et … de gaz carbonique, beaucoup de gaz carbonique, énormément de gaz carbonique ! Il est donc compréhensible que les premières formes vivantes se soient adaptées pour utiliser le rayonnement solaire et puiser dans ce qui pouvait leur servir en quelque sorte de nourriture, ce gaz carbonique très abondant, peut-être entre 13 et 20 % de la totalité de l’atmosphère, on n’en sait pas trop sur ce sujet. Toujours est-il que l’évolution de la vie sur Terre n’a eu de cesse de transformer ce gaz carbonique en immobilisant le carbone et en produisant de plus en plus d’oxygène, oxygène qui a favorisé l’émergence de formes de vie de plus en plus complexes. Cette immobilisation initiale qui a duré deux milliards d’années est aujourd’hui exploitée pour produire des hydrocarbures de schistes. Il faut rappeler ici qu’à cette époque très lointaine les végétaux n’existaient pas et que par conséquent l’immobilisation du CO2 par ces végétaux aériens était également inexistante.

Comment être certain que les choses se sont bien passé ainsi, c’était un peu l’inconnu jusqu’à une étude réalisée par des géologues qui vient de paraître dans le dernier numéro de Science. Pour se faire une idée précise de la composition de l’atmosphère terrestre en ces temps reculés la seule solution résidait dans l’étude des états d’oxydation du chrome dans ces roches mères mais des roches suffisamment vieilles pour pouvoir retracer l’évolution même approximative de l’évolution de la teneur en oxygène atmosphérique. Les trois principaux isotopes du chrome sont le Cr-52, le Cr-53 et le Cr-50 qui se répartissent de la manière suivante : 83,7 , 9,5 et 4,3 % dans la croute terrestre. Le Chrome-50 est radioactif avec une demi-vie extrêmement longue ( 1 milliard de milliards d’années) et se désintègre en Titane-50 stable. C’est en étudiant très finement les quantités respectives de ces trois isotopes du chrome dans les schistes anciens qu’on a pu se faire une idée du pouvoir oxydatif de l’atmosphère terrestre. Les schistes se sont en effet formé à la suite d’érosions des reliefs et tout phénomène d’oxydation a entrainé une séparation des isotopes du chrome en fonction de leur masse résultant en un variation infime mais détectable en chrome-53 par rapport à ce qui est observé dans la moyenne des roches ignées de la croute terrestre. Enfin le rapport entre chrome et titane dans ces mêmes sédiments procure une indication supplémentaire de l’état d’oxydation du chrome durant ces épisodes de lessivage des roches originelles de la croute terrestre, celles qu’on appelle roches ignées issues de l’intérieur de la Terre ou des collisions par des astéroïdes lors de la formation de la Terre.

Il fallait trouver naturellement des échantillons suffisamment anciens pour pouvoir mener à bien une telle étude et il ne reste pas beaucoup d’endroits sur la Terre où trouver des roches très anciennes compte tenu de la dérive incessante des continents durant ces période aussi longues. Par chance il existe encore de très vieux schistes en Chine, la formation Chuanlinggou (1,7 milliard d’années, voir l’illustration), la formation Freedom aux USA (1,65 milliard), la formation Sherwin en Australie (1,45 Md) et la formation Aok (Wynniatt) au Canada vieille de 900 millions d’années. Les éléments de comparaison ont été faciles à trouver comme par exemple ce qui se passe dans le delta de l’Amazone aujourd’hui avec une teneur en oxygène de 20 % dans l’atmosphère ou ce qui se passait pour l’oxydation du chrome dans des roches riches en fer datant de 100 millions d’années.

Capture d’écran 2014-11-03 à 21.08.07

Que s’est-il passé ? L’enrichissement en chrome-53 dans les sédiments (schistes ou encore roches mères) vieux d’environ 750 millions d’années coïncide avec l’avènement du Cambrien et l’apparition de formes de vie différenciées et complexes dont la bilatéralité illustrée par ce fossile de trilobite :

La teneur en oxygène a progressivement augmenté au cours du Protérozoïque pour résulter en une explosion de vie au Cambrien comme le relatent les fossiles correspondants. Les périodes géologiques subséquentes ont fait le reste, en particulier durant le Carbonifère qui a fini de piéger le CO2 atmosphérique pour atteindre la composition de l’atmosphère actuel avec seulement des traces de ce CO2. Les massifs montagneux calcaires sont le résultat de ce long travail des êtres vivants utilisant le CO2 pour vivre !

Que conclure de cette étude et je subodore que mes lecteurs savent déjà où je veux en venir. D’ailleurs il faut avoir l’esprit un peu tordu pour passer des heures à comprendre un article scientifique complexe comme celui-ci et oser le mettre dans un blog. La réponse est toute simple : si les 13 à 20 % de CO2 que contenait l’atmosphère il y a encore un milliard et demi d’années avaient présenté un effet de serre, les océans où tout se passait alors avec les archéobactéries photosynthétiques (cyanobactéries) auraient été en ébullition permanente et aucune forme de vie n’aurait pu durablement s’établir. Ces travaux contredisent donc, certes indirectement, la thèse supposant que le CO2 ait un quelconque effet de serre.

Bien au contraire, le CO2 fut essentiel à l’apparition de la vie et de l’oxygène résultant de son immobilisation par photosynthèse sous forme de carbonates grâce au rayonnement solaire ce qui permit l’émergence de formes de vie plus complexes, dont les végétaux toujours photosynthétiques, mais aussi et surtout les formes vivantes bilatérales (trilobite, illustration ci-dessus) puis les vertébrés ne pouvant survivre sans oxygène.

Ces travaux réalisés par une vaste collaboration internationale pilotée par l’Université de Californie à Riverside et le Caltech peuvent être résumés dans la figure synthétique ci-dessous tirée de l’article paru dans Science le 31 octobre ( DOI: 10.1126/science.1258410 ) que je tiens à la disposition de mes lecteurs.

Capture d’écran 2014-11-03 à 20.58.48

Explications de l’illustration. La partie supérieure décrit l’apparition des formes de vie avec l’explosion du Cambrien (LOEM : microfossiles édiacariens ornementés (600 millions d’années), VSM : microfossiles en forme de vases). La zone verticale en grisé situe l’explosion du Cambrien. La partie inférieure indique les résultats relatifs à la répartition du chrome-53 dans les schistes riches en fer : cercles rouges pour le précambrien, carrés blancs pour le Phanérozoïque, et cercles bleus pour les boues et schistes. L’insert décrit la répartition du rapport chrome/titane dans les schistes pauvres en oxygène où mid-Prot correspond à la période médiane du Protérozoïque, Phan au Phanérozoïque et Wynniatt le schiste daté de 800 à 750 millions d’années coïncidant avec l’explosion du Cambrien. La zone horizontale en grisé est la teneur relative en Cr-53 dans les roches ignées issues du magma. Il faut noter les trois périodes de glaciation presque totale de la planète dont il est avancé qu’elles auraient pour la première (glaciation Huronienne) favorisé l’apparition des eucaryotes et donc l’augmentation du taux d’oxygène atmosphérique et pour les deux suivantes (Sturtian et Marinoan) contribué à l’explosion du monde vivant complexe au Cambrien. Comme la disposition des terres émergées n’est pas connue avec précision au cours de ces périodes de glaciation intense il y a tout lieu de penser que les continents n’ont pas tous été recouverts de glace et qu’ainsi la vie a pu poursuivre son évolution …

Source : Science : DOI: 10.1126/science.1258410

http://en.wikipedia.org/wiki/Geologic_time_scale#Terminology