Le Soleil est entré en léthargie

Capture d’écran 2016-12-02 à 17.16.11.png

Entre le 14 et le 18 novembre 2016, la surface du Soleil était totalement uniforme, c’est-à-dire sans aucune tache. Les taches solaires sont la signature de l’intensité du champ magnétique de l’astre. Comme le Soleil tourne autour de lui-même en 25 jours il faudra attendre encore une semaine pour avoir la confirmation qu’il est entré dans un période de sommeil magnétique prolongée. D’abord le cycle #24 se termine – il a culminé en 2014 – avec une pauvreté en taches solaires jamais observée depuis la fin du XVIIIe siècle et les prévisions de plusieurs équipes d’astrophysiciens indiquent que le prochain cycle solaire sera ponctué de seulement quelques manifestations timides d’activité magnétique. La Nasa (source de l’image) se perd en conjectures puisque depuis le mois de juin passé l’activité solaire est anormalement faible. Déjà en 2014 les spécialistes du Soleil de la NASA s’inquiétaient de ce soudain sommeil de l’astre source de toute vie sur Terre. Et il avouent n’avoir aucune explication à donner au sujet de ces observations alors que le minimum inter-cycle ne devrait être atteint qu’en 2021 … Tout au plus ils déclarent que l’activité solaire est hautement imprévisible. Le Docteur Valentina Zharkova, dont j’ai relaté les travaux à plusieurs reprises sur ce blog, va certainement apprécier !

Crise climatique : le gros « hiatus » qu’il n’est plus possible de nier

Capture d’écran 2016-02-29 à 16.22.33.png

Après les mensonges et les fraudes organisées par la NOAA à la demande d’Obama pour conforter les arguments de l’IPCC lors du grand raout mondain du Bourget au mois de décembre dernier, on revient progressivement à la réalité. Selon le Washington Post qu’on ne peut pas considérer comme un véhément supporter de la théorie du réchauffement et de l’effet de serre, de plus en plus de scientifiques mondialement reconnus admettent aujourd’hui que depuis près de 20 ans la température globale moyenne de la Terre n’a pas évolué. Certains vont même jusqu’à affirmer, données brutes à l’appui, que la surface de la Terre a tendance à se refroidir.

Le lièvre de la supercherie a été levé dans un commentaire paru dans « Nature Climate Change ». Bien que les auteurs de cet article, en particulier le docteur John Fyfe de l’Université Victoria en Colombie Britannique, se gardent bien de le reconnaître, le « non-réchauffement » observé ces dernières années provient du choix de la température de référence. La méthode de calcul fallacieuse pour faire ressortir un réchauffement du climat consiste à choisir la référence qui sera la plus favorable pour atteindre ce résultat.

La notion de température globale moyenne est purement statistique et elle induit au départ une incertitude ouvrant la porte à toutes sortes de manipulations. Les données au sol provenant des stations météorologiques ne sont pas honnêtement considérées car la NOAA aux USA ainsi que les organismes similaires de nombreux pays « choisissent » les données favorables à la mise en évidence d’un réchauffement. Quant aux données satellitaires qui ne datent que de la fin des années 70 de manière fiable, elles ne peuvent être corrélées qu’aux mesures effectuées avec des ballons ou des bouées marines. Or, encore une fois, ces données sont choisies afin d’accentuer le réchauffement. Enfin les données brutes ne sont que très difficilement accessibles au commun des mortels comme vous et moi.

Les climatologues auto-proclamés de l’IPCC ont estimé à l’aide de modèles l’évolution du climat dès la fin des années 90 or les observations tant satellitaires qu’au sol ne vérifient pas ces modèles. Prenons un exemple d’observation au sol depuis 110 ans, la station météo de Socorro dans le Nouveau-Mexique. L’évolution des températures des mois de juin à aout est présentée dans la figure ci-dessous.

Capture d’écran 2016-02-29 à 12.59.34.png

Il faut d’abord noter qu’il s’agit d’anomalies par rapport à la température moyenne calculée entre 1894 et 2015. la courbe bleue représente donc une différence entre les températures mesurées à la station météo de la ville de Socorro et cette température moyenne. La courbe en rouge est une représentation moyennée sur 7 points consécutifs et reflète donc la tendance générale de cette évolution. Le site Climate Central ( http://www.wunderground.com/) a repris ces données et a déclaré que le Nouveau-Mexique était classé premier Etat des USA au palmarès du réchauffement, avec une tendance pouvant atteindre dans certaines localités jusqu’à 12 degrés par siècle ! Comment Heidi Cullen, membre du staff de Climate Central, a-t-elle pu obtenir un telle figure pour la station météo de Socorro ? Tout simplement en choisissant l’année 1970 comme référence et en tirant un trait jusqu’en 2015 … Il se trouve qu’en cette année 1970 la température observée conduisait à une anomalie négative de 1,2 degrés.

Quant à la fraude généralisée de la NOAA, il suffit d’examiner les courbes suivantes retraçant la moyenne des températures de toutes (lesquelles ?) stations météo américaines depuis 1920 remoyennées sur 5 ans. Le tracé en bleu représente les données brutes et le tracé orangé les données recalculées et corrigées à partir des données satellitaires recueillies entre 1995 et 2005.

Capture d’écran 2016-02-29 à 13.06.44.png

Cela ne veut rien dire car les satellites mesurent les émissions dans l’infra-rouge de l’oxygène de l’air et la NOAA, sur la base des données brutes des stations au sol et des ballons météo, a cru utile d’effectuer ces corrections. La tendance au réchauffement passe alors de 0 degrés par siècle à 1,6 °C après un tel ajustement totalement injustifié. La fraude devient évidente quand on jette un oeil sur les données brutes – satellites et ballons – comme indiqué dans cette dernière illustration qui remonte aux premières observations et analyses par satellite :

Capture d’écran 2016-02-29 à 16.13.27.png

Où est le réchauffement ?

Sources : Washington Post (24 février 2016), Nature Climate Change (volume 6, Mars 2016) et blog de Steven Goddard

Changement climatique, épisode 9 : Les fraudes répétées de la NASA et de la NOAA

Il y a quelques jours une information inonda tous les médias main-stream pour faire une piqûre de rappel tant à l’opinion publique qu’aux dirigeants politiques à l’approche du grand raout organisé par Mademoiselle Ségolène dans deux mois : 2015 l’année la plus chaude depuis … on ne sait plus trop. Bref, l’information provenait de la NASA et de l’agence météorologique américaine (NOAA) qui travaillent de concert pour dénombrer les petits nuages, les grosses dépressions tropicales, la fonte des glaces (voir un prochain billet sur ce blog) et les incendies en Californie. Parce que toutes les nouvelles sont alarmantes et doivent l’être quand il s’agit de climat, c’est urgent et nécessaire.

Pas de chance pour la NASA, on peut retrouver ses fraudes répétées. Voici 4 illustrations tirées du blog de Steven Goddard. Elles se passent de commentaires. Les cercles rouges montrent la progression de la fraude.

Capture d’écran 2015-09-21 à 09.30.03

Capture d’écran 2015-09-21 à 09.32.22

Capture d’écran 2015-09-21 à 09.31.09

Capture d’écran 2015-09-21 à 09.28.57

Changement climatique, épisode 8 : Qu’est devenue l’intégrité des scientifiques climatologues ?

Capture d’écran 2015-09-07 à 17.46.04

L’IPCC n’a pas cessé de modifier ses prévisions de réchauffement au cours des années passées. Par exemple en 2007 cet organisme inféodé aux idéaux malthusiens des écologistes politiques clamait qu’il faudrait stabiliser les émissions de carbone en 2015 pour rester dans la limite de 2 °C de réchauffement à la fin du siècle. Le cinquième rapport de ce même organisme faisait mention de 2030 pour ce même objectif étant en cela appuyé par l’UNEP (UN Environment Program). Pour atteindre cet objectif il était clairement conseillé aux décideurs de développer les carburants « verts » et il faut le lire pour le croire : «  il faudra convertir 500 millions d’hectares de terre arable pour produire des biocarburants », c’est une fois et demi la surface de l’Inde ! Ces « experts » de l’IPCC conseillaient également aux décideurs politiques (déjà en 2007) d’accélérer la recherche dans les technique de capture et de stockage du CO2. Or rien n’a encore pu être réalisé dans ce domaine qui puisse être développé au stade industriel et la faisabilité même de ces technologies reste encore à démontrer en 2015. Quand il a été demandé à ces « experts » de bien vouloir préciser leurs calculs et leurs modélisations reliant les émissions de CO2 à l’augmentation de la température, encore une fois leur attitude a semé le doute dans les esprits car aucune réponse crédible n’a pu être apportée. L’IPCC est donc un organe hautement politisé qui tente d’influencer les scientifiques et les ingénieurs travaillant dans ce domaine. Et ces acteurs essentiellement mandatés par les Nations-Unies pour infléchir les décisions politiques des gouvernements ne s’appuient sur aucune évidence scientifique. Les politiciens doivent être informés des évidences scientifiques et non de faits biaisés pour la « cause » de la perturbation climatique globale d’origine anthropique.

Cette brève entrée en matière résume un commentaire paru dans Nature sous la plume d’Oliver Geden, directeur de la division recherche de l’Union Européenne à Berlin au sein de l’Institut Allemand des Affaires de Sécurité Internationale (voir le lien).

Parmi les acteurs influents oeuvrant pour la « cause » climatique il y a aussi la NASA et une nébuleuse d’agences gouvernementales américaines dont par exemple la NOAA. Mais la NASA dans le genre désinformation a fait très fort en se contredisant et de ce fait en ternissant son image d’intégrité scientifique. L’intégrité des sciences de base comme la physique, la chimie et la biologie repose sur des règles de reproductibilité de tous les travaux publiés de façon suffisamment claire et détaillée pour qu’ils puissent être justement reproduits par n’importe qui, n’importe où et à n’importe quel moment. La reproductibilité universelle conjuguée à l’aspect général de précision et de sensibilité des mesures expérimentales constitue le fondement même de l’acceptation par la société de l’intégrité de ces sciences de base, tant que les observations et expérimentations scientifiques concernent des corps physiques, des substances chimiques ou des organismes vivants. Dans les sciences dites appliquées et en particulier dans le domaine du climat et de la météorologie ces principes fondamentaux ont été parfois l’objet de contestations et de conflits. Il en est résulté une érosion de ces principes de reproductibilité, de précision et de sincérité en regard des intérêts sociologiques car l’économie et la prévention des risques ont surpassé en importance ces principes. Il est donc opportun de se positionner de manière critique quand on analyse l’intégrité de ces sciences appliquées.

La problématique du CO2 pose une question : comment le mélange chimique de molécules de gaz atmosphériques qui sont les uns insensibles aux rayonnement infra-rouges et les autres sensibles à ces derniers impacte-t-il les flux d’énergie de la surface de la Terre vers les hautes couches de l’atmosphère puis vers l’Espace. Si cette question ne doit pas trouver de réponse satisfaisante avec la physique et la chimie fondamentales mais avec la météo et le climat on peut alors émettre des doutes quant à l’intégrité scientifique de ces dernières sciences appliquées. La critique peut être motivée pour des raisons éthiques ou politiques mais in fine elle doit s’appuyer sur les sciences de base elles-mêmes.

Cette problématique du CO2 concerne la composition chimique de l’atmosphère et le flux d’énergie depuis le sol jusqu’aux hautes couches de l’atmosphère. Ces deux points concernent d’une part la chimie en ce qui concerne la composition de l’atmosphère et la physique en ce qui concerne l’énergie. Ces deux disciplines constituent la chimie physique fondamentale. Cette science doit donc être susceptible de clarifier la problématique du CO2. Si l’on se place du point de vue d’un physico-chimiste, la science climatique s’est déjà rendue vulnérable en avançant l’approximation mathématique de la Terre stipulant que celle-ci peut être décrite comme un « corps noir » à la température de – 18 °C. Or l’expression mathématique décrivant un corps noir est une fonction continue sur tout le spectre électromagnétique et cette approximation doit être valable aussi bien pour les longueurs d’onde du visible que pour celles des infra-rouges. N’importe qui peut se rendre compte que le ciel est bleu, la Terre est verte quand elle n’est pas désertique et les océans, qui couvrent plus des deux tiers de la surface de la Terre sont loin d’être à – 18 °C et seraient plutôt noirs s’il ne reflétaient pas durant la journée la couleur du ciel ! Enfin les physico-chimistes savent très bien que la molécule d’eau qui émet des radiations dans la bande des infra-rouges n’est pas un émetteur continu sur toute la plage des longueurs d’onde comme le décrivent les équations du corps noir de Max Planck. Cette température de – 18 °C se trouve dans tous les livres mais elle est basée uniquement sur ces deux hypothèses de la science climatique : en regard du Soleil et de l’Espace, et thermiquement, la Terre est un corps noir à – 18 °C . Sans aller plus loin dans les détails (je sens que certains de mes lecteurs sont déjà découragés) il suffit d’examiner comment la question du CO2 a été abordée par une organisation scientifique a priori extrêmement méritoire, en appliquant les connaissances accumulées par la science spatiale. La NASA, puisque c’est d’elle dont il s’agit, a rassemblé tous les flux d’énergie en provenance du Soleil à travers l’atmosphère et les flux d’énergie en provenance de la Terre vers l’Espace. Jusqu’en 2009 ce que la NASA appela le budget énergétique de la Terre ressemblait à ça :

Capture d’écran 2015-09-10 à 08.12.38

Il s’agit d’une approximation puisque les grandeurs figurant dans cette illustration ( W/m2 – en rouge – ou pourcentages) sont moyennées. Il y aurait beaucoup à redire sur la méthode utilisée pour obtenir ces valeurs moyennes car la Terre est ronde et elle tourne sur elle-même mais il serait long et compliqué d’entrer dans des considérations mathématiques laborieuses pour démontrer point par point que l’approximation utilisée par la NASA est fausse. Par rapport au Soleil et à l’Espace la Terre se comporte effectivement comme un corps noir à la température de – 18 °C à condition toutefois d’inclure dans cette approximation une autre approximation qui est le facteur d’erreur de réflexivité de 30 % ! Ce n’est pourtant pas le cas si on considère la surface de la Terre et l’environnement thermique dans l’infra-rouge et pour une raison très simple : il n’existe pas de stations d’observation fixes dans l’atmosphère permettant de mesurer les flux thermiques. Les satellites (de la NASA) mesurent la totalité du flux solaire entrant vers la Terre diminué de 30 %. Les satellites ne peuvent pas déterminer d’où ces radiations infra-rouges proviennent en direction de l’atmosphère, c’est-à-dire qu’il existe une incertitude impossible à élucider avec des satellites : on ne sait pas mesurer quelle est la part de rayonnements infra-rouges provenant de la surface de la Terre ou d’un quelconque niveau de l’atmosphère. C’est l’incertitude dont j’ai parlé lors d’un précédent billet de ce blog. Pour faire bref, les photons infra-rouges émis par une molécule d’eau de la vapeur composant l’atmosphère ne savent pas s’ils doivent retourner vers la surface de la Terre ou rayonner vers l’Espace. La quantification de la radiation thermique infra-rouge – 6 % provenant de la surface terrestre et 64 % provenant de l’atmosphère – peut dès lors paraître plausible.

Il reste cependant un problème non résolu par les observations satellitaires : pour inclure le rôle du CO2 dans le processus de dissipation vers l’espace de l’énergie solaire parvenue vers la Terre il faut donc admettre que seule l’atmosphère joue ce rôle de transfert de l’énergie thermique. Le rôle dans ce processus de la surface de la Terre est alors négligé et la Terre se comporte effectivement comme un corps noir à la température de – 18 °C à la seule condition, encore une fois, que seule l’atmosphère joue un rôle dans ce processus. Cette hypothèse est naturellement fausse compte tenu des observations au sol.

C’est alors qu’apparut une modification du schéma résumant les observations de la NASA en 2009 faisant intervenir le fameux effet de serre car la supercherie devait bien être expliquée d’une manière ou d’une autre et de surcroit très officiellement par un organisme connu par ailleurs pour ses prouesses spatiales passées.

Pour une bonne compréhension de ces deux schémas et afin de pouvoir les comparer, valeurs des flux d’énergie (dans le premier schéma) et pourcentages (dans le deuxième schéma) ont été surajoutés en rouge aux schémas de la NASA. Le premier schéma est globalement cohérent mais dans ce schéma il est crucial que les molécules d’eau et de CO2, les seuls constituants de l’atmosphère actifs dans le processus d’élimination vers l’Espace de l’énergie thermique sous forme de rayonnement infra-rouge, jouent le rôle de « corps noirs » qui refroidissent la planète. Cette première illustration de la NASA est donc proche de la réalité.

Quand la NASA a publié sa deuxième interprétation des flux thermiques décrivant le « budget thermique » de la Terre en 2009 avec cette fois l’ « effet de serre » :

Capture d’écran 2015-09-10 à 08.13.18

on n’a pu que se poser quelques questions presque existentielles sur l’intégrité scientifique de cet organisme. On est à première vue attiré par les deux énormes flux d’énergie qui ne figuraient pas dans la première version. On est aussi étonné que la NASA ait tenté délibérément de brouiller les esprits en intervertissant pourcentages et valeurs des flux en W/m2, une sorte de tour de passe-passe injustifié mais grossier. Les chiffres en surimpression en rouge permettent de s’y retrouver : des watts/m2 dans le premier schéma et des pourcentages dans le deuxième. On a l’impression qu’il y a là comme une tentative d’arnaque scientifique. Tout semble à peu près similaire à une exception près et de taille. Les 15 % d’énergie absorbés par l’atmosphère dans la figure 1 (flèche orange horizontale) ont été remplacés par les énormes vecteurs rouges justifiant l’ « effet de serre ». La différence est loin d’être négligeable car il est très important pour justifier cet « effet de serre » putatif de considérer que seule l’atmosphère intervient dans la dissipation de l’énergie reçue du Soleil vers l’Espace et que la surface de la Terre ne joue qu’un rôle mineur comme l’indiquent ces deux gros flux d’énergie figurés par les flèches rouges.

Les modifications qui n’apparaissent que si on analyse ces schémas scrupuleusement sont les suivantes : les radiations thermiques (infra-rouges) de l’atmosphère et des nuages passent de 64 % dans le premier schéma à 58,8 % dans le second en se référant dans le bilan thermique à 50 % pour l’atmosphère et 8,8 % pour les nuages. Et en quelque sorte pour retrouver un semblant d’équilibre – le trucage est éminemment subtil car il n’apparait pas à première vue – les radiations infra-rouges en provenance de la surface de la Terre passent de 6 à 11,8 % : bel exemple de probité scientifique mais passons … Si on scrute plus en détail ces deux schémas, la ligne de base pour la question du CO2 reste inchangée : la couche fine de l’atmosphère terrestre reste capable sans aucun doute de transporter par rayonnement infra-rouge toute l’énergie reçue du Soleil. J’ajouterai à quelques points de pourcentage près car la Terre emmagasine tout de même de l’énergie solaire par capture de cette dernière au cours des mécanismes photosynthétiques des végétaux et du phytoplancton. Tant dans le schéma 1 que dans le schéma 2 CO2 et eau restent les « corps noirs » prépondérants contribuant à dissiper l’énergie solaire incidente vers l’Espace beaucoup plus efficacement que les autres gaz constituants de l’atmosphère. Il est nécessaire d’insister sur l’invraisemblable importance de ces flux d’effet de serre (back radiation) et de réémission depuis la surface de la Terre, 340 et 298 W/m2, des données naturellement non vérifiées et non vérifiables, à la vitesse de la lumière : 117,1 % dans un sens et 100 % dans l’autre sens : c’est un peu n’importe quoi !

Il est évident que ces affirmations mensongères de la NASA doivent être revisitées dans une approche pragmatique réalisée par des physico-chimistes sans aucun a priori politique ou idéologique et il est nécessaire de disposer de mesures précises sur toute la hauteur de la colonne atmosphérique stabilisée par le gradient adiabatique gravitationnel. Le fait que la Terre se comporte comme un corps noir à la température de – 18 °C n’est valide que pour les composants de l’atmosphère qui sont activés par le rayonnement infra-rouge et non pas par le rayonnement provenant de la surface de la Terre.

Oliver Geden, dans son commentaire adressé au Journal Nature a rendu publique la question de l’intégrité de la science climatique actuelle en citant les interférences nuisibles des « conseillers en climat » et le mélange des genres regrettable avec leurs orientations politiques et financières. Ce commentaire est donc opportun pour dénoncer la tournure qu’a pris la science climatique dans les moyens abordés pour justifier la validité de la question de l’effet de serre du CO2.

Le monde politique, finalement, est maintenant confronté à de réels problèmes comme la disponibilité des terres arables (j’en dirais un mot dans un prochain billet) pour nourrir la population, la disponibilité et l’utilisation des moyens financiers considérables détournés pour satisfaire la fausse science climatique au détriment du développement et de la santé de milliards de personnes mais pour le plus grand profit d’une poignée d’investisseurs internationaux anonymes ayant élu domicile dans des paradis fiscaux. Ces mêmes politiciens et les climatologues de l’IPCC qui sont payés pour les conseiller et les orienter dans leurs décisions doivent aussi prendre conscience du « hiatus » du non-réchauffement de ces quelques 19 dernières années malgré l’augmentation continue de la teneur en CO2 de l’atmosphère, observation qui à elle seule ruine toutes ces hypothèses fantaisistes d’effet de serre du CO2.

Illustrations : NASA et Nature. Sources : Dr Gerhard Stehlik, Hanau, Dr Vollrath Hoop, Dreieich, Allemagne, NASA et http://www.nature.com/news/policy-climate-advisers-must-maintain-integrity-1.17468

Changement climatique, épisode 7 : quand la NASA confirme le refroidissement climatique à son insu

Hurricane_Wilma_21_oct_2005_1625Z

Depuis l’ « atterrissage » de l’ouragan Wilma en 2005, il s’est passé neuf années sans qu’aucun phénomène de ce type ait eu lieu sur les côtes américaines. Les météorologues appellent ça une « sécheresse » d’ouragans … Il faut dire qu’ils puisent dans leur vocabulaire professionnel pour qualifier ce qu’ils observent et ils ont raison car ainsi ils savent à peu près de quoi ils parlent. Et ce phénomène de sécheresse particulièrement longue n’était pas arrivé depuis 177 ans ! Parallèlement la fréquence de phénomènes météorologiques violents comme les tornades a également diminué au cours des dix dernières années. Il n’en a pas fallu plus pour que des fonctionnaires de la NASA (Goddard Institute à New-York) fassent mouliner des ordinateurs pour expliquer cet étrange situation complètement inattendue puisque le réchauffement climatique global d’origine humaine prévoit au contraire une fréquence de plus en plus élevée de phénomènes météorologiques comme des ouragans de plus en plus violents.

Les simulations numériques minutieusement réalisées ont exclu tous les ouragans de catégorie inférieure à 3 (échelle de Saffir-Simpson) c’est-à-dire que les ouragans Ike (2008), Irene (2011) et Sandy (2012) n’ont pas été pris en considération. Le modèle développé (encore une fois les prédictions n’engagent que les ordinateurs) pour prédire l’arrivée sur le sol d’ouragans a abouti à ceci :

Capture d’écran 2015-09-10 à 18.21.22

Du bleu foncé au rouge : ouragans de catégorie de 1 à 5 sur l’échelle de Saffir-Simpson. En pointillé la courbe correspondant à un événement de probabilité nulle. L’échelle est logarithmique (drought = sécheresse qu’on peut traduire par absence). Ce graphique se lit ainsi : la probabilité pour qu’il n’y ait pas d’ouragans de catégorie 3 (en vert) pendant une période de 10 années consécutives serait de 500 ans et d’ouragans de catégorie 4 pendant une même période de 10 années serait de 40 ans.

Si on considère les dates mentionnées dans cet article, 177 ans avant le début de cette présente période de « sécheresse » d’ouragans il se trouve que l’on se retrouve en 1829 (2015 – 9 – 177). Retranchons encore 9 années et on arrive à l’année 1820 c’est-à-dire très exactement à la fin du deuxième cycle solaire très déficitaire du petit âge glaciaire qui sévit au début du XIXe siècle et appellé le minimum de Dalton. Or le dernier cycle d’activité solaire (24e) qui se termine en ce moment (ne figure pas dans l’illustration ci-dessous) est à peu près comparable en nombre de taches et en intensité aux deux cycles qui induisirent ce petit âge glaciaire.

Sunspot_Numbers - copie

Je cite la conclusion de l’article paru dans Geophysical Resarch Letters : « A hurricane climate shift protecting the U.S. during active years, even while ravaging nearby Caribbean nations, would require creativity to formulate. We conclude instead that the admittedly unusual 9 year U.S. Cat3+ landfall drought is a matter of luck » et en français : il faudrait de la créativité pour expliquer que le changement climatique protège les côtes américaines des ouragans durant les saisons actives (comprenez pendant la saison des ouragans) alors qu’ils ravagent les nations des Caraïbes. Nous concluons plutôt que cette période inhabituelle de 9 années sans atterrissage d’ouragans de catégorie supérieure à 3 relève de la chance.

C’est écrit noir sur blanc, vérifiez par vous-même, l’article est en libre accès. Il est tout de même incroyable que les auteurs de cet article n’aient même pas eu l’idée d’établir une relation avec la faiblesse du cycle solaire 24 alors qu’ils sont fonctionnaires de la NASA et payés pour étudier l’activité solaire, le climat, la météorologie et accessoirement le taux de natalité des petits hommes verts. Il y a là matière à émettre de sérieux doutes quant à la valeur scientifique des nombreux travaux émanant des divers secteurs de la NASA car à l’évidence les auteurs manquent de sens critique et, comme ils l’avouent explicitement, de créativité … Cependant cet article apporte une magnifique preuve du refroidissement climatique en cours, mais chutt ! il ne faut surtout pas en parler.

Source : DOI: 10.1002/2015GL063652 . Illustration (NOAA) ouragan Wilma touchant la péninsule du Yucatan (catégorie 5). Il passera quelques jours plus tard sur la Floride.

Changement climatique : La NASA auto-alimente son fond de commerce, maintenant ce sont les volcans …

volcano700x425

Puisque le réchauffement climatique n’a finalement pas eu lieu alors qu’il y a près de 25 ans on prédisait des étés de plomb et des hivers sans neige avec cette fameuse courbe en crosse de hockey brandie par tous les prédicateurs de l’Eglise de Scientologie Climatique (je veux parler de l’IPCC et de son clergé de climatologues autoproclamés qui siègent en concile deux fois par an, le prochain ayant lieu à Paris avec la grande prêtresse Mademoiselle Ségolène en maître de cérémonie) il a bien fallu mettre encore plus de satellites d’observation autour de la Terre, encore plus d’équipes au sol et d’aéronefs renifleurs de CO2 et d’autres vilains gaz à effet de serre et encore plus de sondes marines ou atmosphériques pour tenter de trouver une explication à ce « hiatus » climatique. Et El Nino qui n’arrive toujours pas complique encore plus la tâche de ces charlatans …

On a inventé la descente au fond des océans de l’eau chaude, il fallait avoir l’audace d’y penser, la fonte des glaciers qui radoucit l’eau de mer et perturbe les courants marins, malheureusement ils ne fondent toujours pas aussi vite que prévu et beaucoup de glaciers ont tendance à de nouveau s’épaissir. La NASA scrute le ciel mais telle Soeur Anne du sommet de sa tour elle ne voit rien venir. Et pourtant, il y aurait comme un petit frémissement de commencement d’explication à ce « hiatus climatique » finalement bien difficile à gérer. Les observations de l’atmosphère ont été tout simplement mal conduites, c’est ce qu’affirme une équipe de climatologues du Lawrence Livermore National Laboratory (LLNL), l’un des bras armés de la NASA, dans deux articles parus dans les Geophysical Research Letters. Il faudra encore plus de moyens pour affiner les observations réalisées mais d’ors et déjà on en est sûr et certain, le « hiatus climatique » est provoqué par les éruptions volcaniques à répétition de ces 20 dernières années, c’est écrit noir sur blanc, avec de belles photos à l’appui, et si on ne veut pas croire à cette énième baliverne on est soit hérétique, soit fasciste, soit négationniste mais en tous les cas on n’est pas du tout une personne recommandable car on verse dans le politiquement incorrect global.

Bien qu’admettant qu’après tout l’éruption cataclysmique du Pinatubo (1991) qui aurait dégagé un gros proute d’oxydes de soufre dans l’atmosphère, 17 millions de tonnes d’après les estimations de la NASA, n’a finalement par vraiment perturbé durablement le climat intertropical, ce sont toutes les « petites » éruptions qui contribueraient fortement au « hiatus climatique » en émettant des oxydes de soufre réfléchissant le rayonnement solaire non pas dans les couches stratosphériques de l’atmosphère mais beaucoup plus bas qu’attendu et prédit par les modèles, soit à environ 12 à 15 kilomètres d’altitude. La NASA n’avait pas mis son nez dans cette zone de l’atmosphère parce que les observations sont compliquées par la présence de cirrus, des nuages constitués de cristaux de glace très fins, qui eux aussi réfléchissent le rayonnement solaire et ça fausse les observations.

Les « modèles » climatiques doivent donc être revus de fond en comble parce que ça ne marche pas, ça ne marche plus et ça n’a jamais marché et cette découverte sensationnelle et inattendue est là pour le prouver.

Le refroidissement climatique résultant de ces émissions d’oxydes de soufre plus bas que prévu dans l’atmosphère serait de – 0,05 à – 0,12 degrés depuis l’année 2000 selon le nouveau modèle développé pour la cause au LLNL, c’est énorme ! Heureusement qu’il y a des volcans pour sauver l’humanité de la grillade généralisée mais il ne faut pas trop s’en approcher surtout quand ils sont nerveux …

Source et illustration (éruption du Tavurvur en Papouasie-Nouvelle-Guinée, août 2014) : Lawrence Livermore National Laboratory News.

Note : il y a une quarantaine de volcans en activité dans le monde, ils ne sont pas tous en éruption permanente fort heureusement. Les dernières éruptions notoires sont celle du Chaitén au Chili en 2008, celle du Merapi en 2010 (Java), celle de l’Eyjafjallajökull en 2010 (Islande) et enfin celle du Puyehue-Cordon en 2011 encore au Chili. Celle du Tavurvur n’a pas été répertoriée comme notoire, ça rassure …

Et si la NASA se mettait à douter du changement climatique ?

Capture d’écran 2015-01-04 à 15.43.16

La NASA, l’un des principaux instigateurs de la théorie de l’effet de serre et du changement climatique à la suite des affirmations douteuses de James Hansen relatives à la transposition à la Terre de l’état de l’atmosphère de Vénus serait-elle sur le point de changer son fusil d’épaule ? On est en droit de constater que le doute s’installe dans l’esprit des ingénieurs de cette organisation tentaculaire qui a largement bénéficié de crédits exceptionnels pour développer une recherche en tous genres afin de surveiller ce changement climatique qui désespérément n’arrive toujours pas … Le principal fautif de ce changement climatique supposé est le CO2, or ce gaz est essentiel à la vie sur Terre et dans les océans. Sans CO2, pas de plantes ni de plancton, c’est aussi simple que cela. Certains maraîchers le savent bien, si on enrichit l’atmosphère d’une serre en CO2, en restant dans des limites raisonnables, les plantes poussent plus vigoureusement. Ce phénomène est très bien expliqué car l’enzyme qui fixe le CO2, la RUBISCO, ne sait pas trop s’il doit s’occuper de l’oxygène ou du gaz carbonique pour son bon fonctionnement. Dès lors qu’on enrichit l’atmosphère en CO2, l’équilibre fonctionnel de la RUBISCO est déplacé vers une fixation plus rapide de CO2. Tous les biologistes qui se sont penché sur le fonctionnement des plantes le savent très bien.

Apparemment, avec une flottille considérablement coûteuse de satellites et d’aéronefs renifleurs de CO2 épaulés par de non moins coûteuses observations sur le terrain, la NASA a fini par enfoncer une porte ouverte, par vérifier une lapalissade, plus il y a de CO2 plus les forêts tropicales ont tendance à piéger ce gaz accusé de tous les maux ! Au moins on est rassuré car la tendance des forêts tropicales à incorporer le CO2 atmosphérique en surplus en raison des activités humaines déraisonnables contrebalance largement le déficit d’absorption des forêts boréales qui, comme chacun sait, souffrent gravement du réchauffement climatique. Seulement il y a un gros hic selon les ingénieurs experts en modélisation en tous genres du Jet Propulsion Laboratory à Pasadena, le réchauffement climatique risque de mettre en péril les ressources en eau à la suite de sécheresses prolongées. On ne sait pas trop s’il s’agit de périodes de longue sécheresse dans les zones inter-tropicales qui sont à redouter ou si ces perturbations hydrologiques affecteront plus dramatiquement les forêts boréales.

Néanmoins, le réchauffement climatique perturbera inévitablement l’immobilisation du carbone par les forêts et il faudra encore plus de satellites, d’avions, de ballons-sonde et d’autres moyens terrestres pour être enfin absolument certain que le réchauffement climatique perturbe à grande échelle le cycle du carbone. Mais au fait, c’est quand que ça se réchauffe vraiment ? Depuis 18 ans les températures n’ont pas sensiblement augmenté, le Nino tant attendu n’est toujours pas au rendez-vous, les Seychelles et les Tuamotu n’ont toujours pas été submergées, les glaciers de l’Himalaya ne fondent toujours pas, les vagues de froid se succèdent en Amérique du Nord, la navigation circum-boréale est toujours impossible et les glaces de l’Antarctique ne fondent toujours pas à la vitesse prévue par les modèles … de la NASA et on ne parle plus du trou d’ozone.

Difficile de croire dans ces conditions que le soit-disant réchauffement climatique dont l’IPCC parle à longueur de communiqués de presse et de publications scientifiques (qui n’ont plus rien de scientifique) puisse constituer une menace dont il faille se préoccuper à grands coups de milliards de dollars !

Source et illustration : Jet Propulsion Laboratory News