Les caprices météorologiques occupent les esprits

Lorsque j’étais enfant les étés orageux, les hivers enneigés, les gelées tardives et les sécheresses prolongées n’étaient pas une conséquence du « dérèglement climatique » comme on l’entend et le lit chaque jour aujourd’hui. On disait dans les chaumières « c’est à cause de la bombe » sans que qui que ce soit ait pu prouver un lien de cause à effet entre les essais nucléaires atmosphériques et les facéties de la météorologie. La seule conséquence certaine mais jamais rendue publique est que le monde entier a été contaminé avec des produits de fission radioactifs comme le strontium-90 mais en parler est considéré comme « complotiste ».

Quand il y eut cette coulée de boue à Atami au Japon on a brandi le dérèglement climatique. En une journée quelques 20 personnes ont disparu en Rhénanie-Palatinat en Allemagne et 3 pompiers sont morts dans l’exercice de leur métier de sauveteurs en raison de la crue soudaine d’une rivière (décompte du 14 juillet, le bilan s’est alourdi depuis lors). C’est encore le dérèglement climatique qui en est la cause première et cela ne fait aucun doute dans les esprits formatés depuis des années par la propagande incessante concernant les conséquences catastrophiques, comme on peut le constater, du réchauffement climatique, pardon du dérèglement car on dit maintenant dérèglement, le tout à cause du CO2. À croire que le climat ne se réchauffe plus !

La pandémie coronavirale aurait été provoquée par le dérèglement climatique, mais oui des « experts » l’ont affirmé, la vague de froid qui a paralysé le Texas était naturellement provoquée par ce dérèglement ainsi que la canicule qui a sévi dans l’Etat de Washington et en Colombie britannique. Tout cela s’appelle de la propagande d’autant mieux envahissante que plus personne ne croit aux aléas météorologiques naturels car ils sont nécessairement la conséquence de l’activité humaine. J’ai mentionné dans un précédent billet sur ce blog que nous entrions dans une phase d’instabilité climatique après l’optimum climatique moderne (1930-2000) et que la tendance vers un refroidissement allait reprendre son cours normal au cours des prochaines décennies. L’humanité n’a aucun pouvoir sur l’activité du Soleil et encore moins sur la météorologie et c’est bien là son problème fondamental.

Il faut enfin remettre les choses à leur place. Il y a quelques années l’idée était que le passage du nord-ouest permettrait de relier l’Asie en contournant le nord du Canada et l’Alaska pour atteindre l’Asie. Depuis 40 ans il est infranchissable a fortiori au milieu de l’été. Quant au passage du nord-est reliant l’Europe à l’Asie en longeant les côtes sibériennes il faut toujours des brise-glace pour le franchir. La banquise arctique n’a pas régressé contrairement à toutes les prévisions incessantes dont nous avons tous été les victimes et le serons encore car la propagande mensongère est devenue une pratique courante.

Illustration : https://wattsupwiththat.com/2021/06/20/ice-follies/

Evolution du climat au cours des deux derniers millénaires

En m’inspirant toujours de l’article très riche en information d’Andy May dont j’ai laissé le lien dans un précédent billet il m’est apparu intéressant d’effectuer une analyse détaillée de la figure 2 de son somptueux article. Il s’agit de l’analyse de l’évolution des températures au nord du trentième parallèle réalisée minutieusement par les Docteurs Christiansen et Ljungqvist en 2012 en utilisant exclusivement ce que l’on appelle des proxys, très exactement 91, c’est-à-dire des analyses des cernes des arbres, des sédiments lacustes et marins, des teneurs en oxygène-18 des carottages glaciaires, des chroniques tant européennes que chinoises, de l’analyse des spéléotèmes, bref, à l’exclusion des relevés de températures avec des thermomètres ou plus récemment par analyse satellitaire. Si la diversité de tous ces proxys ajoute un degré de difficulté dans l’analyse ces auteurs ont été contraints d’homogénéiser toutes ces données du point de vue chronologique. Je conseille aux lecteurs de ce billet de jeter ne serait-ce qu’un coup d’oeil pour qu’ils se rendent compte du travail de fourmi réalisé par ces auteurs (doi : 10.51194/cp-8-765-2012 que l’on peut trouver aussi sur le site www.clim-past.net/8/765/2012 ). Il est tout aussi admirable de constater le travail qu’a réalisé Andy May pour en arriver à la reconstruction de l’évolution des températures dans l’hémisphère nord (hors régions intertropicales) tout aussi minutieuse. Pour plus de clarté cette reconstruction a été exprimée en anomalie par rapport à la moyenne des températures (reconstruites également) entre 1880 et 1960.

Une autre complication apparaît lorsque l’on rapproche tous les proxys utilisés par Christiansen et Ljungqvist. Disserter de l’évolution de climat moyen est une approche loin d’être satisfaisante sinon exacte car le climat dépend des interactions locales entre le relief, les vents et la proximité ou non d’une étendue océanique. Contrairement aux études des sondages effectués dans le détroit de Makassar, les proxys terrestres varient considérable d’une région à l’autre. Par exemple alors que l’Europe faisait l’expérience de froids rigoureux au début du Dix-huitième siècle le nord de l’Alaska connaissait des température presque clémentes, et quand Napoléon s’est aventuré dans les grandes plaines d’Europe orientale et de Russie il a mal choisi la date de sa campagne alors que le centre de la Chine profitait de températures plus clémentes que d’habitude. Bref, après un véritable travail de bénédictin Andy May a réussi à obtenir cette reconstruction :

On retrouve la tendance vers un refroidissement si on fait abstraction des deux périodes optimales, médiévale et contemporaine. La période chaude médiévale (MWP) a duré deux siècles et a connu un essor sans précédent du bien-être des peuples d’Europe, une croissance de la population favorisée par des récoltes abondantes avec une urbanisation également jamais constatée auparavant. La pluviométrie due à des températures élevées a permis la transformation des déserts d’Asie centrale en plaines herbeuses, ce qui a ouvert la voie à Gengis Khan jusqu’aux portes de l’Europe. Et une population foisonnante a été la principale explication de la construction en Europe occidentale des cathédrales. L’homme n’a rien fait pour que le climat suive à nouveau cette pente descendante jusqu’au milieu du dix-neuvième siècle, ce que l’on a appelé le petit âge glaciaire (LIA). L’optimum moderne qui a débuté au milieu des années 1930 paraît comme une sorte d’accident transitoire dans cette évolution générale du climat. Tout a été fait pour trouver une explication à cette poussée des températures et la plus communément admise (approuvée par 99 % des scientifiques concernés) est la conséquence sur le climat des émissions de CO2 provenant de l’utilisation des combustibles fossiles carbonés. C’est presque caricatural d’en être arrivé là. Comment tous ces experts expliquent-ils l’optimum climatique médiéval ? Il serait intéressant de leur poser la question et qu’ils répondent de manière circonstanciée. Selon la reconstruction d’Andy May les températures atteintes durant le MWP ont été supérieures à celles reconstruites à l’aide des proxys lors de l’optimum moderne, abstraction totale faite des relevés de températures à l’aide de thermomètres qui ont conduit à des délires inimaginables du genre « courbe en crosse de hockey » d’évolution des températures, résultat d’une manipulation éhontée des relevés de températures que les anglo-saxons appellent le « sherry-picking ». Les travaux de Christiansen et Ljungqvist repris par Andy May sont tout sauf du sherry-picking.

Avec l’optimum climatique moderne l’humanité (hors zones intertropicales) vit encore et depuis la fin de la première guerre mondiale un âge d’or éphémère qui pourra encore durer quelques années ou dizaines d’années, ensuite ce sera l’inconnu … Retrouvez l’article d’Andy May en vous reportant au précédent article à ce sujet sur ce blog.

Nous entrons dans une nouvelle ère glaciaire

Savez-vous où se trouve le détroit de Makassar ? Il s’agit d’un détroit séparant l’île de Bornéo et l’île de Sulawesi dans l’archipel des Célèbes, la partie est de l’Indonésie. Ce détroit intéresse au plus haut point les climatologues car il y a peu de courants marins bien que ce détroit soit peu profond, moins de 1000 mètres, et en liaison directe avec l’Océan Pacifique au sud des Philippines. Il est donc relativement facile d’y effectuer des sondages dans les sédiments et de reconstituer les températures océaniques en déterminant le rapport magnesium/calcium du squelette des foraminifères (Hyalina balthica entre autres) se retrouvant dans ces sédiments. Malgré la localisation équatoriale de ce détroit (3° sud) la température de l’eau à 500 mètres de profondeur est très stable et égale à 7,5 degrés. L’analyse des sédiments permet ainsi de construire avec précision l’évolution des températures à cette profondeur puisque le rapport Mg/Ca est très sensible aux variations de températures. Si l’article paru dans la revue Science en 2013 n’est pas explicite (doi : 10.1126/science.1240837) un traitement des données recueillies par le Docteur Yair Rosenthal et son équipe de la Rutgers University a permis de visualiser une parfaite reconstitution de l’évolution des températures à 500 mètres de profondeur de cette région du globe depuis 7000 ans avant l’ère commune jusqu’à nos jours.

Les foraminifères sont des variétés d’amibes détritivores vivant au fond des océans et possédant pour certaines un squelette de calcite. L’analyse du rapport magnésium/calcium permet de reconstruire l’évolution des températures à 500 mètres de profondeur. D’aucuns diront que cela ne signifie rien et que de surcroit le détroit de Makassar ne se trouve ni en Europe ni en Amérique du Nord, là où la propagande climatique est la plus active, donc circulez il n’y a rien à voir. Et pourtant c’est n’est pas tout à fait l’avis d’Andy May, un géologue aujourd’hui à la retraite qui a longtemps travaillé pour les compagnies pétrolières. Ce sont aussi à des géologues qu’est confiée l’étude des carottages des sédiments marins et Andy May possède tout le savoir-faire pour interpréter les données recueillies par Rosenthal et c’est ce qu’il a fait ! L’illustration ci-dessous a été annotée par May et elle est disponible en grand format en cliquant sur le lien en fin de billet :

Les tenants du réchauffement climatique d’origine humaine auront du mal à avaler la réalité des faits : l’évolution des températures au fond du détroit de Makassar constituent un précieux marqueur de l’évolution des températures mondiales. Mes lecteurs peu familiers avec la langue anglaise comprendront le sens des annotations encadrées et les abréviations RWP, MWP et LIA signifient respectivement la période romaine chaude, la période médiévale chaude aussi nommée optimum climatique médiéval (soigneusement ignoré par l’IPCC) et le petit âge glaciaire pas si petit que cela puisqu’il a duré près de 3 siècles. On se retrouve aujourd’hui avec un degré et demi de température moyenne à peu de choses près de moins que dans la situation de la période médiévale chaude avec des fluctuations du climat difficilement prévisibles car on ne dispose pas d’informations au sujet par exemple de l’activité solaire. Si on contemple cette illustration on ne peut que constater que toute l’importance que les instances onusiennes attachent par exemple au CO2 n’est que pure propagande. Le gros problème avec toute cette histoire réside dans le fait qu’un tel graphique n’a jamais figuré dans les rapports de l’IPCC, et pour cause il remet en question la théorie de l’effet de serre et de son effet sur le climat. Comme disent les anglo-saxons, c’est un « hoax », traduisez une fausse nouvelle, de très mauvais goût .

Enfin, comme indiqué dans ce graphique nous sommes sur la pente descendante des températures et quoiqu’il arrive, malgré de petites fluctuations, le climat va se refroidir et on n’y peut rien. Toujours est-il qu’il serait sage d’envisager pour les générations futures des lendemains pas trop froids par des innovations technologiques encore non existantes sinon l’humanité ne pourra survivre que dans la zone intertropicale et le reste des terres émergées deviendra désertique. Prochain billet : les 2000 dernières années. Source : https://andymaypetrophysicist.com/2021/06/23/how-to-compare-today-to-the-past/ et figure en grand format :

Jusqu’en 2060 le Soleil va faire une grande sieste …

En dépit du fait que la propagande climatique continue à mettre en avant l’effet de serre du CO2 qui doit (en théorie) conduire à un réchauffement généralisé de la planète, des climatologues et astrophysiciens disposant d’une solide formation en mathématique continuent à ne s’intéresser qu’à l’activité du Soleil, le tout premier paramètre influençant le climat de la Terre dans des échelles de temps « non géologiques » contrairement aux autres paramètres beaucoup plus étalés dans la durée comme les variations d’obliquité et d’excentricité de l’orbite de la Terre. Ce sont deux paramètres distincts qui doivent être analysés séparément. Une petite équipe de scientifiques s’est donc encore une fois penchée sur l’évolution de l’activité solaire en choisissant une approche différente de celle du Docteur Valentina Zharkova. Celle-ci avait formalisé à l’aide d’équations mathématiques l’évolution du champ magnétique solaire et avait conclu que l’activité magnétique solaire allait décroître durant les quelques 40 années à venir puis la situation redeviendrait normale vers la fin du XXIe siècle. De l’activité magnétique du Soleil découle directement l’irradiance solaire qui atteint la Terre. Cette irradiance se transforme en chaleur dont plus de 99 % se dissipe dans l’espace sur le long terme et la conséquence directe est alors une modification des conditions climatiques, modifications toujours progressives en raison de la très importante inertie thermique des océans.

Les Docteurs Herrera, de l’Université de Mexico, Soon de l’Université d’Harvard et Legates de l’Université du Delaware ont donc tenté avec succès une analyse de l’activité solaire telle qu’elle a été observée depuis plus de 3 siècles en comptant le nombre de taches solaires. Les données disponibles depuis le début du XVIIIe siècle sont le reflet d’un système complexe d’oscillations périodiques qui se superposent et ces physiciens ont choisi l’analyse spectrale des « ondelettes », Wavelet Transform en anglais, pour faire apparaître les diverses composantes cachées conduisant à cette variation de l’activité solaire dont dépend le climat de la Terre. Cette approche nécessite une puissance de calcul importante et la mise en place d’algorithmes permettant de faire apparaître le spectre temporel des diverses composantes modulant l’activité solaire. Il s’agit du traitement d’un ensemble de signaux, le nombre de taches solaires répertoriées chaque année depuis l’année 1700, abstraction faite de tout préjugé. Je rappelle ici qu’il n’est jamais fait mention de climat dans l’article cité en référence.

Comme on pouvait s’y attendre la première « fonction périodique » commandant l’activité solaire détectée par cette approche est le cycle de onze ans bien connu. Le spectre des fréquences temporelles fait néanmoins apparaître d’autres fonctions qui, avec des moyens informatiques appropriés, vont être par la suite analysées à l’aide d’algorithmes adaptés ce qui a fait dire au Docteur Herrera qu’il avait mis à profit l’intelligence artificielle pour expliquer l’évolution de l’activité solaire. Il serait plus approprié de parler de traitement à haute complexité d’un grand corpus d’informations. Ces algorithmes ne sont pas artificiels puisqu’ils ont été écrits par des hommes dans le but d’effectuer des calculs complexes et fastidieux très rapidement. La première analyse des Wavelet Transform (WT) a permis de détecter des « harmoniques » de fréquences temporelles supérieures au cycle de 11 ans appelé cycle de Schwabe (rien à voir avec le patron du World Economic Forum) dont les fréquences sont de 22 ans, 60 ans et 120 ans, ces deux derniers cycles ayant été décrit par Rudolf Wolf. En examinant plus attentivement cette analyse à l’aide d’un algorithme plus sophistiqué il apparaît également un cycle de 5,5 années. Pour arriver à un tel résultat il a été adjoint au WT une analyse Bayesienne décrite par le mathématicien Bayes en 1763 dont le théorème peut être écrit de la manière suivante :

Évènement postérieur = (Probabilité/évidence) x événement antérieur. En d’autres termes les paramètres analysés dépendent à chaque instant des paramètres antérieurs à cet événement et l’analyse Bayesienne permet une optimisation, étape après étape du calcul, des facteurs décrivant ces paramètres.

Que faire alors de cet outil ? L’équipe de Herrera a utilisé plus de 500 paramétrages probabilistes pour atteindre un intervalle de confiance satisfaisant en ce qui concerne les données existantes sur les taches solaires afin de tenter de réaliser des prédictions crédibles – en lesquelles on peut faire toute confiance – pour les années à venir. Et c’est sur ce point que cette étude est tout à fait intéressante. Les paramètres de l’analyse Bayesienne des WT (wavelet transform) ont permis de réaliser des prévisions très précises jusqu’en 2100 :

En a) les cycles solaires et la prédiction après 2019, en b) l’analyse WT mettant en évidence la composante harmonique d’une durée de 5,5 ans mise en évidence et confirmée au cours de cette étude, en c) l’analyse WT proprement dite, en d) les variations périodiques du cycle solaire de 11 ans enveloppées dans les modulations de 120 ans dont les maxima sont numérotés I, II, III et IV (prévision), en e) les variations périodiques du cycle solaire de 22 ans appellé cycle de Hale, en f) les variations du cycle de 60 ans dit de Yoshimura-Gleissberg et en g) le cycle de 120 ans aussi appelé de Wolf. Enfin en h) la nouveauté déduite des calculs est l’anomalie énergétique temporelle de chaque cycle de 11 ans. On retrouve le minimum de Maunder, le « petit âge glaciaire », suivi de l’optimum d’activité solaire moderne qui, selon les prévisions sera suivi d’une quarantaine d’années d’activité solaire effondrée proche de celle du petit âge glaciaire. Nulle part la publication ne fait allusion à une modulation du climat car il ne s’agit que d’une analyse de l’activité solaire à partir des taches solaires et non des proxys isotopiques qui ont permis une reconstitution de l’activité solaire sur une beaucoup plus longue période et il n’est fait aucunement mention de la mécanique céleste car celle-ci n’exerce aucun effet sur l’activité solaire.

Source et illustration : https://doi.org/10.1016/j.asr.2021.03.023 aimablement communiqué par le Docteur Herrera.

Le refroidissement du climat : seule issue pour mettre fin à la pandémie coronavirale ?

Ce dernier hiver 2021 le Texas, le plus méridional des Etats des USA avec la Floride, a été l’un des plus froids et enneigé jamais enregistrés. La ville de Corpus Christi a connu des bourrasques de neige et la région d’Amarillo, au nord de l’Etat, fut le témoin de températures inférieures à 0°C pendant plus d’une semaine. Selon les spécialistes des paléoclimats il s’agissait d’une des premières manifestations de la période de transition qui verra, dans un délai encore difficile à quantifier, apparaître un refroidissement progressif du climat. Ce climat dont tout le monde se préoccupe a fait dire à certains que cet hiver texan particulièrement froid et neigeux était une conséquence du « réchauffement climatique d’origine anthropique ». Un ancien Président de la République française avait même déclaré que le grand tremblement de terre du Kanto au Japon était une conséquence de ce réchauffement du climat. Dans la même veine certains analystes pervers ont aussi déclaré que l’épidémie de coronavirus était également provoquée par le réchauffement du climat. Il faut faire preuve d’une certaine abnégation intellectuelle pour croire en toutes ces billevesées.

Mais revenons au Texas. Après avoir traversé cet épisode sub-polaire les autorités politiques de l’Etat ont décrété le 3 mars 2021 que toutes les privations de liberté mises en place pour maintenir l’épidémie de coronavirus étaient levées : plus de port du masque, plus de restrictions d’accès dans les restaurants, plus de distanciation sociale, en quelque sorte la vie normale « comme avant ». Qu’en est-il aujourd’hui de cette épidémie qui préoccupe outre mesure les gouvernements occidentaux quand un « cluster » de mutants delta est détecté quelque part au point d’en rajouter une petite dose de privation des libertés ? Il n’y a plus aucune logique scientifique dans les décisions prises par les décideurs politiques et les esprits malveillants, en particulier les Démocrates du Texas, avaient prévu dans le courant du mois de mars une situation apocalyptique à la suite de la décision du gouverneur de l’Etat. Il n’en est rien. Voici les dernières statistiques publiques mises à jour le 24 juin 2021 : le 23 juin 40 % des Texans ont été complètement vaccinés, 1496 personnes sont toujours hospitalisées (87 de moins qu’une semaine auparavant), au 24 juin 1091 nouveaux cas confirmés, neuf de plus qu’une semaine auparavant, et le 24 juin enfin, 38 morts soit la moyenne sur les 7 jours précédents.

De nombreux gouvernements devraient se rendre compte que le Texas a pris une bonne décision car aucun désastre sanitaire n’a eu lieu. Il est même impossible d’invoquer le taux de vaccination de la population dans cette baisse spectaculaire puisque selon les « experts » en la matière la fameuse immunité de groupe ne pourra être atteinte que lorsque 80 % de la population aura eu son double shoot d’ARN messager. Alors que s’est-il passé de politiquement incorrect au Texas ? Puisque tout le monde, y compris ces « experts », nagent dans un océan de fausses hypothèses je propose que la froidure qu’a connu le Texas en ce début d’année 2021 a terrassé le virus. Il me vient à l’esprit une autre explication tout aussi improbable : laisser les gens tranquilles et ne plus leur empoisonner l’existence favorise leur résistance au virus. Vive la liberté !

Source : The Texas Tribune

De qui se moque-t-on ? 1 : le CO2

Un des résultats de la culpabilisation du CO2 comme élément perturbateur du climat a été l’avalanche d’études concernant le cycle du carbone sur la Terre. Le résultat obtenu est une connaissance très fine de ce cycle qui comprend quatre compartiments : le sol, les océans, les terres émergées et l’atmosphère. Oublions un instant la croute terrestre, elle-même le plus grand réservoir de carbone se répartissant entre les carbonates et une fraction négligeable de combustibles fossiles liquides, gazeux et solides, respectivement 100 millions de peta-grammes et seulement 10000 peta-grammes . Le deuxième compartiment est celui des océans avec 38000 peta-grammes. La couche superficielle des sols émergés où se trouve la végétation et toutes les plantes représentent le troisième grand réservoir de carbone avec 2000 peta-grammes et enfin l’atmosphère, le parent pauvre dans cette histoire mais étant pourtant l’objet de toutes les préoccupations de l’humanité ne représente qu’un infime compartiment avec péniblement 750 peta-grammes, autant que les premiers deux mètres d’eau océanique ! Toutes ces données figurent dans l’illustration ci-dessous issue d’un article de Clyde Spencer paru sur le site d’Antony Watts :

Intéressons-nous maintenant aux flux entre ces divers compartiments. Mis à part l’échange permanent au niveau des océans entre CO2 gazeux atmosphérique et CO2 dissous dans l’eau, en faveur d’une dissolution de ce gaz dans l’océan, les flux les plus importants sont d’une part la séquestration du CO2 lors des processus de photosynthèse dans les plantes et dans le phytoplancton et la respiration des sols, micro-faune, bactéries et champignons, et la respiration des végétaux. Comme je l’ai mentionné à de multiples reprises sur ce blog la respiration des êtres humains, des animaux d’élevage et des animaux sauvages est négligeable dans ce flux. Les processus de respiration des sols et de la couverture végétale représentent 15 fois plus que toutes les émissions de carbone provenant de l’activité humaine. Et pourtant ces 7,7 peta-grammes comparés aux 117 peta-grammes que représentent tous les processus de respiration naturelle des plantes et des sols a focalisé toutes les attentions au plus haut niveau des décideurs politiques. La seule séquestration par les océans du CO2 total présent dans l’atmosphère est 11 fois supérieure à toutes les émissions de ce même gaz en raison de l’activité humaine. Voici le bilan dressé par Clyde Spencer :

C’est donc très clair : la contribution humaine dans le pool de CO2 global produit n’est que de 4 %. Le souci avec cette estimation est que la production « anthropogénique » de CO2 inclut également les feux de forêt ce qui est loin d’être prouvé car il y a aussi des feux de forêt spontanés provoqués par des coups de foudre. En excluant cette figure il ne reste plus que 3 % de contribution humaine dans ce bilan. On voudrait donc faire croire aux populations qu’il est impératif et urgent de réduire les émissions de carbone d’origine humaine de 10, 15, 20 %, voire plus, pour sauver le climat mais ces diminutions au prix d’efforts économiques et sociaux insurmontables ne représenteront jamais que 0,3 ou au plus 0,6 % du flux total de carbone émis sur la totalité de la planète. De tels objectifs ne sont même pas observables par les spectromètres infra-rouges d’Hawaii. C’est d’ailleurs la raison pour laquelle la chute de l’activité économique mondiale au cours de l’année 2020 n’a eu aucun effet sur cette teneur en CO2 de l’atmosphère. Le climat a-t-il réagi à ce changement ? Non. L’exposé de Spencer prouve donc indirectement que le CO2 n’a aucun effet sur le climat, s’il était encore nécessaire d’apporter des preuves supplémentaires à ce sujet. Pour conclure les organisations internationales qui veulent réformer le monde et le mode de vie des êtres humains se moquent de nous. Tous leurs arguments sont adossés à des affirmations fausses. On vit aujourd’hui dans un monde où le mensonge a remplacé la science … Comme le disait Steve Koonin dans son ouvrage et dans ses exposés sur les plateaux télévisuels : rien n’est encore établi en ce qui concerne cette histoire de climat.

Les falsifications des relevés de température : un autre scandale mondial

Pour étayer la propagande mondialement organisée afin d’instituer des règlements internationaux devant conduire à une diminution des émissions de carbone les manipulations graphiques grossières opérées par les organismes onusiens ne cessent d’être dénoncées par tous ceux qui s’en émeuvent. Mais l’opinion publique et les gouvernements sont maintenant intimement persuadés que le réchauffement du climat pour des raisons d’origine humaine ne pourra être contrecarré que si le monde entier devient frugal en énergie et se contente de quelques heures par jour d’une production électrique entièrement « verte ». Ces énergies vertes sont en effet par nature intermittentes et la puissance disponible n’atteindra jamais celle fournie par les usines consommant du pétrole, du gaz naturel, du charbon ou de l’uranium. Les pays occidentaux seront les plus affectés par cette nouvelle religion que les élèves des écoles apprennent soigneusement dès l’âge de dix ans et que les politiciens mettent déjà en place à grands renforts de taxes et d’investissement pharaoniques inutiles.

Les relevés de la station météorologique de Reykjavik sont un exemple caricatural de ces manipulations. Leur but est de faire croire que, oui, il a bien un « échauffement » du climat depuis 120 ans. De plus il faut triturer les données brutes des relevés de température afin d’obtenir une évolution qui suit de près l’augmentation de la teneur atmosphérique en CO2, sinon il n’y aurait rien de convaincant. L’IPCC, organisme onusien en charge de répandre cette propagande, est en cela aidé par la NASA, la NOAA et d’autres organisations connexes voire des universitaires complaisants en mal de crédits de recherche prêts à vendre leur âme à ces fonctionnaires internationaux grassement payés avec nos impôts. Et choisir la station météo de Reykjavik est d’autant plus caricatural que l’électricité produite en Islande est d’origine exclusivement géothermique. Bref, le Goddard Institute for Space Studies, émanation de la NASA, ajuste les relevés de température bruts, les « nettoie » (on ne sait pas ce que cela signifie) et les homogénéise (on ne sait pas non plus ce que cela signifie) pour d’une part faire disparaître l’optimum climatique des années 1920-1970 et d’autre part amplifier le réchauffement qui se serait accéléré depuis les années 1980. Un prouesse graphique !

Tony Heller est un remarquable « limier » pour débusquer les malhonnêtetés de l’IPCC et dans le cas précis de la station météo de Reykjavik les malhonnêtetés de la NOAA et de la NASA. Chaque jour ou presque il débusque une de ces manipulations scandaleuses et il les relate sur son site realclimatescience.com. Il faut croire Heller dont le curriculum est long comme le bras ( https://realclimatescience.com/who-is-tony-heller/ ).

Voici donc l’une de ses dernières découvertes, d’abord les relevés de température à Reykjavik moyennées chaque année depuis 1900 :

Et voici les données ajustées, nettoyées et homogénéisées :

Cherchez l’erreur !

Brève. La transition énergétique « à l’allemande »

On s’achemine lentement mais sûrement vers une sorte de dictature dont les premiers effets seront des privations de liberté des individus. L’exemple le plus caricatural est le prix des billets d’avion que vient d’imposer la cour de justice constitutionnelle allemande de Karlsruhe. Cet organisme très respecté sauf par la Banque Centrale européenne vient d’émettre non pas un avis mais une sorte de loi contraignante pour « sauver le climat ». Le prix de l’électricité en Allemagne est déjà de 40 % plus élevé que dans tous les autres pays européens (sauf pour l’industrie) mais quand bien même, les Allemands devront se restreindre encore plus. La première décision prise est une interdiction des billets d’avion de moins de 60 euros pour un voyage à l’intérieur de l’Europe. Ce n’est qu’un début car l’objectif sera de réserver les voyages aériens aux seuls riches comme c’était le cas dans les années 1970. Il faudra donc pour les Allemands se contenter du train pour venir par exemple passer quelques jours dans l’archipel des Canaries, une de leurs destinations préférées avec la Grèce.

Mais ce n’est pas encore assez pour sauver le climat. Le prix de l’électricité devra encore être augmenté car près de 50 % du parc éolien a atteint 20 années d’existence et les subventions tarifaires également. L’entretien des moulins à vent va donc devenir prohibitif et ils seront tout simplement laissés à l’abandon. Le journaliste Axel Bojanowski du Die Welt a été très clair : une série de biens et services ne seront plus réservés qu’aux riches. Comprenez que les étapes suivantes de sauvetage du climat seront une augmentation par des taxes-climat des prix des légumes, des fruits importés, de l’essence, du fuel domestique pour se chauffer et des grands appartements en ville, des biens que seuls les riches pourront s’offrir.

La lutte contre le réchauffement climatique est donc bien un projet de ségrégation sociale par l’argent. C’est fondamentalement ce que propose le World Economic Forum : une élite riche et le reste de la population constitué de pauvres. La France suivra le chemin de l’Allemagne avec l’arrêt programmé de tous les réacteurs nucléaires de 900 MWe. Bel avenir …

Inspiré d’un billet de Pierre Gosselin paru sur son blog ce dimanche 16 mai 2021.

Neutralité carbone ou « net zéro » : le débat

Article paru sur le site The Conversation le 10 mai 2021. J’ai inséré en caractères italiques et parfois entre parenthèses quelques remarques.

Il peut sembler étrange de trouver des partisans de l’action climatique débattant des mérites d’un concept que la science montre comme essentiel pour enrayer le changement climatique et qui est par conséquent ancré au cœur de l’accord mondial le définissant.

Pourtant, c’est là que nous nous trouvons avec le concept de « neutralité carbone », c’est-à-dire le point où toutes les émissions de gaz à effet de serre d’origine humaine sont équilibrées avec l’absorption, mettant un terme au réchauffement du climat. La nécessité d’atteindre des émissions nettes nulles dans le monde est largement prouvée dans la science (promue par l’IPCC), et les gouvernements se sont engagés avec l’Accord de Paris de 2015 à atteindre « un équilibre entre les émissions anthropiques par les sources et les absorptions par les puits de carbone au milieu du siècle, dans le but de maintenir le réchauffement climatique à 1,5 ℃.

Ce concept n’a été inclus dans l’Accord de Paris qu’en raison d’une poussée déterminée des militants et des pays vulnérables. Et il est difficile de penser à un exemple récent plus réussi d’idées d’activistes modifiant les termes du débat. En deux ans, le nombre de pays, de gouvernements nationaux et d’entreprises se fixant des objectifs de neutralité carbone a explosé, la couverture passant de 16% du PIB mondial en juin 2019 aux deux tiers maintenant. Il n’est pas exagéré de dire que le « net zéro » est désormais le critère déterminant à travers lequel de nombreux gouvernements, entreprises, ONG et autres types d’entités envisagent la décarbonation.

Cependant, les militants ne sont pas tous en harmonie. Beaucoup ont réagi en soulignant les failles de certains objectifs « net zéro », avec des invectives particulières adressées aux sociétés pétrolières et gazières qui prévoient de payer pour des compensations au lieu de traiter les émissions causées par la combustion de leur produit (c’est comme rendre responsables les fabricants de cigarettes des cancers pulmonaires).

Dans certains cas, les préoccupations concernant la mise en œuvre d’objectifs de neutralité carbone se transforment en critique du concept lui-même. Récemment, trois universitaires spécialistes du changement climatique, dont l’ancien président du GIEC, Bob Watson, ont décrit le net zéro comme un « fantasme » et un « piège », tandis que Greta Thunberg a déclaré que « ces cibles éloignées » visent à « donner l’impression que nous agissons sans avoir à changer » nos modes de vie.

Engagements nets zéro : une image mitigée

Pour être crédible, une entité proclamant un objectif net zéro devrait avoir mis en place certaines mesures de robustesse : à tout le moins, un engagement de haut niveau, un plan publié, des mesures immédiates de réduction des émissions et un mécanisme de rapport annuel. Il doit s’assurer que toutes ses émissions attribuables sont couvertes et que toute «compensation» utilise des techniques de piégeage de haute qualité, vérifiées et permanentes.

En mars 2021, nous faisions partie des chercheurs qui publiaient la première analyse de la robustesse des engagements nets zéro pris dans plus de 4000 gouvernements et entreprises nationaux et infranationaux, représentant 80% des émissions mondiales ( https://eciu.net/analysis/reports/2021/taking-stock-assessment-net-zero-targets ). Nous avons constaté que le tableau est mitigé : alors que la plupart des entités ayant un objectif net zéro ont mis en place des mesures de robustesse telles que des objectifs intermédiaires (60%) et un mécanisme de reporting (62%), d’autres non. Le tableau des compensations (payer des crédits carbone à partir d’actions réalisées ailleurs) est particulièrement préoccupant, avec seulement 23% des entités soit les excluant, soit en imposant des restrictions à leur utilisation.

Cela signifie-t-il que le concept de zéro net en tant que cadre déterminant de la décarbonisation est en soi un fantasme ? Nous dirions que ce n’est absolument pas le cas.

La série de promesses de zéro net en croissance rapide s’accompagne d’une théorie cohérente du changement. Premièrement, si une entité est sérieuse, elle tiendra son engagement en mettant en place des mesures robustes, à commencer par des actions immédiates de réduction des émissions : ne pas le faire ouvrira rapidement l’entité en question à être accusée de manque de sérieux.

Deuxièmement, la promesse d’un objectif signifie que l’entité peut être tenue responsable par les électeurs, les actionnaires ou les clients. Troisièmement, pour démontrer sa crédibilité, il peut être demandé une accréditation auprès d’un mécanisme impartial tel que l’initiative des objectifs scientifiques, qui peut valider si son plan est réaliste. Quatrièmement, ces mécanismes d’accréditation évoluent au fil du temps pour suivre la science. Par exemple, la « Course au Zéro Net », soutenue par l’ONU, a récemment publié des critères améliorés (dans lesquels nous étions impliqués : https://racetozero.unfccc.int/the-race-to-zero-strengthens-and-clarifies-campaign-criteria/ ) et d’autres critères sont en cours d’étude. Chacune de ces quatre étapes rend l’engagement plus concret – et s’il n’est pas sérieux, l’expose clairement.

Signes que les objectifs « net zéro » conduisent à une action plus robuste

Il y a des premières indications que cela est plus qu’une théorie. Le Royaume-Uni, l’UE et les États-Unis ont tous récemment fixé des objectifs de zéro net pour 2050, puis ont revalorisé leurs objectifs de 2030 pour les rendre proportionnés. En Allemagne, la Cour constitutionnelle vient d’ordonner au gouvernement d’intensifier son action à court terme pour s’assurer que les coûts du respect du net zéro ne pèsent pas de manière disproportionnée sur les générations futures. Une enquête sur les nouvelles contributions déterminées au niveau national (CDN) que les nations doivent soumettre avant le prochain sommet des Nations Unies sur le climat, la COP26, montre que 32 des 101 pays ayant des objectifs nets de zéro ont amélioré leur CDN, contre 11 des 90 pays sans objectif net zéro.

Les défenseurs du climat ont raison de souligner le caractère vague de certains engagements, en particulier de la part des entreprises de combustibles fossiles. Un tel examen est nécessaire pour protéger la science du « green-washing ». Comme Thunberg l’a ensuite tweeté, « le problème n’est bien sûr pas les objectifs nets zéro eux-mêmes, mais qu’ils sont utilisés comme excuses pour reporter une action réelle ». C’est un vrai danger. Si nous permettons à des utilisations malhonnêtes du net zéro de discréditer le concept dans son ensemble, nous risquons de renoncer aux gains durement acquis par les militants et les pays vulnérables lors du sommet de Paris en 2015. Plutôt que de gâcher toutes les promesses de zéro net avec la même approche critique, nous préconiserions de différencier les objectifs sérieux de ceux fixés pour le green-washing. Toutes les entités ne se lanceront pas dans leur parcours vers le net zéro avec un plan à part entière, mais elles devraient rapidement clarifier comment elles atteindront leur objectif : celles qui le font méritent des applaudissements si leurs plans sont robustes et viables, tandis que celles qui ont des plans non viables ou absents. méritent des critiques.

Malgré les imperfections, le renforcement généralisé des objectifs de neutralité carbone, en particulier pour générer de fortes réductions d’émissions au cours de la prochaine décennie, offre la voie la plus viable pour mettre en œuvre l’Accord de Paris et ainsi prévenir les impacts les plus dangereux du changement climatique. Nous devrions obtenir le bon net zéro, pas nous en débarrasser.

Remarque de votre serviteur. Si je me suis donné la peine de faire figurer cet article sur mon blog ce n’était que pour illustrer l’incompréhension totale dans laquelle on peut se trouver quand on songe d’une part que le « carbone » d’origine humaine ne représente que 5 % du total atmosphérique et que la moitié de celui-ci disparaît naturellement en 5 ans et quand on remarque d’autre part que la diminution globale du PIB mondial de 12 % au cours de l’année 2020 n’a pas eu d’effet mesurable sur la quantité de ce « carbone » atmosphérique on ne peut que conclure que cette histoire de neutralité carbone dissimule une vaste entreprise financière cachée. Les taxes « carbone », les « crédits carbone » et autres gadgets ne sont que la face visible d’un vaste programme de réduction des activités humaines ouvrant les portes à toutes sortes de spéculations financières. Je citerai comme exemple très révélateur l’attitude d’Elon Musk qui, après avoir spéculé sur le Bitcoin, a fait une volte-face en déclarant qu’il se désintéressait de cette monnaie virtuelle car elle consommait trop d’énergie, comprenez qu’elle produit trop de carbone. La réduction de l’ensemble des activités humaines conduira nécessairement à une paupérisation des populations des pays en premier lieu les plus avancés.

Pic pétrolier ? On verra plus tard

Dans les cercles très fermés des « pétroliers », en d’autres termes les grandes Major pétrolières, il se chuchote que les réserves de pétrole et de gaz ne seront épuisées que dans 200 ans. Cette information est difficile à croire, néanmoins elle a circulé sur divers sites d’information non « officiels », comme s’il ne fallait croire que les médias contrôlés par les gouvernements occidentaux. Il est vrai que les dites réserves de pétrole et de gaz sont classées secret-défense et seuls les géologues travaillant pour ces compagnies d’exploration et d’exploitation connaissent les réelles réserves que contiennent les sédiments rocheux proches de la surface, c’est-à-dire à moins de 10000 mètres de profondeur. En ce qui concerne le charbon, je m’étais arrêté sur des réserves de l’ordre de 200 ans au rythme de consommation de l’année 2019 comme pour ces rumeurs officieuses relatives aux réserves de pétrole. Si l’information citée ci-dessus est exacte alors on pourrait considérer que les réserves de charbon non exploitables économiquement aujourd’hui pourraient couvrir les besoins énergétiques mondiaux peut-être pour encore 300 ou 400 ans.

L’humanité a encore de beaux jours à vivre quelles que soient les déclarations alarmistes de écologistes qui ont oublié que restituer du CO2 séquestré il y a des centaines de millions d’années favorisait la végétation terrestre et la prolifération planctonique. Certes les océans constituent le plus important piège de la planète pour le CO2, alors toute augmentation considérée comme indésirable pour le climat sera prise en charge par les océans. Ce piégeage du CO2 par les océans obéit à de très subtiles réactions chimiques et une modification de ce que l’on appelle les conditions initiales, en d’autres termes une augmentation de la teneur en CO2 de l’atmosphère, conduira a un renforcement de ce piégeage. Quant à l’oxygène qui se dissout également dans l’eau océanique il y en aura toujours assez dans l’atmosphère pour ne pas mourir d’asphyxie. Ce piège océanique tant du CO2 que de l’oxygène est illustré par l’abondance de la vie planctonique et marine en général dans toutes les zones du globe où existent des phénomènes dits d’upwelling ( https://en.wikipedia.org/wiki/Upwelling ) provoqués par des vents qui poussent l’eau dans leur direction. Comme le niveau de la mer ne peut pas baisser de l’eau profonde remonte en surface, le long des côtes sud-africaines, de l’Oregon et de la Californie ou encore entre le Maroc et l’archipel des Canaries, le long des côtes du sud du Chili et autour de l’Antarctique. Les eaux y sont incroyablement poissonneuses car elles sont riches en phyto-plancton qui se nourrit de CO2 et de zoo-plancton qui dispose d’oxygène et se nourrit à son tour de phyto-plancton. C’est bien là l’une des preuves les plus convaincantes de l’utilité du CO2 pour la vie.

Après cette entrée en matière que se passera-t-il quand les programmes de « neutralité carbone » progressivement mis en place par les pays occidentaux pour « sauver » le climat auront atteint leur but ? Il ne se passera rien ! Tout simplement parce que le CO2 issu des activités énergétiques humaines ne représente qu’à peine 5 % de l’ensemble de ce gaz atmosphérique et que sa durée de vie (laps de temps pour que la moitié de ce gaz disparaisse par piégeage océanique ou par la biosphère) est d’environ 5 ans. Je rappelle à ceux des lecteurs de mon blog qui auraient des doutes que ces données sont disponibles et accessibles dans la littérature scientifique. Le grand coup de bluff des tenants de l’effet de serre du CO2 prétendant que 10 % de diminution des émissions de ce gaz durant l’année 2020 en raison des confinements massifs des populations allait avoir un effet bénéfique sur climat est facilement démonté. En effet, 10 % de 5 % de CO2 est inférieur à la limite de sensibilité des instruments de l’observatoire de Mona Loa. Il n’y a, cependant, aucun doute qu’un jour la planète sera totalement dépourvue de combustibles carbonés fossiles, mais ce sera dans plusieurs siècles. L’humanité dispose donc de beaucoup de temps pour s’adapter comme d’ailleurs elle a toujours su le faire dans le passé. Le climat continuera à évoluer à son rythme quoiqu’en pensent les tenants du réchauffement provoqué par les activités humaines …