Le kérosène dans le collimateur des écolos, une blague grossière !

Capture d’écran 2019-02-26 à 10.19.44.png

Sous la pression des partis écologistes le gouvernement fédéral helvétique envisage de mettre en place une taxe carbone sur les billets d’avion.

Alors faisons les comptes. En 2018 je suis monté à bord de 25 avions différents – je ne suis pourtant qu’un modeste voyageur – pour parcourir 55000 kilomètres. Si j’avais couvert une telle distance avec un véhicule automobile à essence consommant 3,5 litres de carburant pour 100 km j’aurais donc consommé, à peu près, 2000 litres d’essence. Cette même distance couverte par un gros porteur genre Airbus A-330 a nécessité par passager à peu près 400 litres de kérosène donc 4 fois moins de carburant qu’avec une voiture.

Ah ! Mais votre calcul, même approximatif, ne vaut rien, me rétorqueront les écologistes politisés à outrance et prisonniers de leurs dogmes. Les avions volent à 10000 mètres d’altitude et avec les trainées de poussières qu’ils laissent derrière eux ils perturbent le climat. Au sol les automobiles n’ont pas un tel effet sur le climat.

Admettons. Il n’en reste pas moins que les avions émettent 4 fois moins de gaz supposés présenter un effet de serre par kilomètre-passager. Donc le transport aérien (gros porteurs, c’est-à-dire plus de 200 passagers) est plus « écolo » que l’automobile et encore une fois ces écologistes qui veulent tout régenter conformément à leurs idéologies se trompent au sujet des billets d’avion. Oui mais ! diront-ils alors, la consommation de kérosène qualité aviation ne cesse d’augmenter et du coup les gaz à effet de serre augmentent. Encore une erreur grossière : ce kérosène ne représente que 5 % de tous les distillats de pétrole. Avant d’affirmer que les avions ont un immense effet sur le réchauffement climatique et qu’il faut donc taxer les billets d’avion, il est plus prudent de s’informer et de réfléchir avant de parler … Illustration : aéroport de Madrid-Barajas

Climat et taxe carbone : un curieux mélange prémédité par les puissances financières transnationales contraire aux évidences scientifiques.

Capture d’écran 2019-02-09 à 12.30.07.png

La fiction de l’origine humaine du réchauffement climatique date de la transposition erronée des conditions atmosphériques de la planète Vénus à la Terre. Ce fut James Hansen qui, le premier, fit cette erreur consistant à promouvoir un effet de serre du CO2. Comme la Terre Vénus est une planète tellurique environ 20 % plus petite. L’accélération de la pesanteur au sol est de 8,82 m/s2, ce qui est proche de celle de la Terre (9,81 m/s2). Par contre les atmosphères de Vénus et de la Terre ne peuvent pas être comparées. Celle de Vénus est constituée de 96,5 % de CO2 et la pression au sol, résultat de la gravitation de la planète sur cet atmosphère très dense, est de 92 bars, soit près de 10 fois plus que sur la Terre. En raison du gradient adiabatique (lapse rate en anglais, lire plus loin) la température à la surface de Vénus est de 462 degrés C. Il est important de comparer le gradient adiabatique de Vénus avec celui de la Terre. Ce gradient explique le refroidissement de l’atmosphère au fur et à mesure que l’on s’éloigne du sol. Il est de moins 10,5 degrés par kilomètre pour Vénus et de moins 9,8 degrés par kilomètre pour la Terre. Cette dernière valeur, en ce qui concerne la Terre, est théorique puisqu’elle ne tient pas compte de la présence de vapeur d’eau. Quand Hansen a rassemblé toutes ces données il a conclu que c’était parce que le CO2 était un gaz à effet de serre et qu’il piégeait l’énergie provenant du Soleil que la température au sol – de la planète Vénus – était aussi élevée en ignorant soigneusement le facteur induit par le gradient adiabatique. Voilà résumée succinctement la genèse de la théorie de l’effet de serre du CO2.

À la surface de la Terre la température varie grosso modo entre – 40 degrés aux pôles et + 40 au niveau de l’Equateur. Prétendre que la température « moyenne » de la Terre est de + 15 degrés environ est une erreur grossière : +40 + (-40) = 0. En premier lieu réaliser des moyennes de températures n’a aucune signification scientifique. En second lieu si on applique les lois de la thermodynamique au couple Soleil-Terre décrites en particulier par la loi de Stefan-Boltzmann la température de la Terre au sol devrait être (en moyenne) de – 18,8 °C si la Terre se comportait comme un corps noir parfait. Or ce n’est pas le cas puisque la température moyenne au sol est d’environ 15 degrés. De plus l’application de la loi de Stefan-Boltzmann à la Terre fait appel à trop d’approximations pour qu’elle puisse être appliquée. Alors cherchez l’erreur !

Elle provient du fait que dans tous ces calculs théoriques l’effet de la gravitation sur l’atmosphère a été tout simplement ignoré. Et pour bien insister sur ce point je vais donc me répéter ! Il existe un gradient de densité et donc un gradient de température au sein de l’atmosphère qui se traduit par une chute de la température au fur et à mesure que l’altitude croit.

Je voudrais ici insérer une très simple observation à ce sujet qui explique très clairement l’effet de la gravité sur ce gradient adiabatique. Qui n’a pas regonflé le pneu de son vélo avec une pompe en aluminium, un tube muni d’un piston. Quand on appuie sur le piston de la pompe on ressent tout de suite une élévation de la température du cylindre. On peut expliquer cet effet par l’action mécanique appliquée au piston. Pour le champ de gravité de la Terre exercé sur l’atmosphère c’est exactement la même situation : la gravité c’est l’effet de compression de l’air dans la pompe à vélo et la température augmente. Aussi simple que ça …

Foehn-Fonh_corrected2.png

Ce gradient adiabatique est d’environ 8 degrés par kilomètre comme cela a été mentionné plus haut et il dépend étroitement de la teneur atmosphérique en vapeur d’eau. Il explique en particulier la formation des nuages. Un autre effet direct de la présence de ce gradient est l’effet de foehn et comme les observations ont plus de valeur qu’un long discours je vais donc décrire le cas de la ville de Santa Cruz où je réside, à Tenerife. Cette ville bénéficie de cet effet de foehn lorsque les vents alizés froids et humides de nord-est viennent se bloquer sur le massif montagneux d’Anaga situé au nord de la ville. L’air humide monte et en se refroidissant (effet du gradient adiabatique) la vapeur d’eau se condense. La forêt dense appelée laurisylve recouvrant les montagnes – peut-être la plus vieille forêt primaire du monde puisqu’elle date d’au moins 7 millions d’années – est copieusement arrosée. L’air, débarrassé de sa vapeur d’eau – qui s’est condensée en pluie fine – et ayant franchi le sommet des montagnes, redescend par convection en raison de la légère dépression sur le versant sud de la montagne provoquée par le flux d’air des vents alizés et cet air se réchauffe alors sensiblement en se rapprochant du sol en raison, comme dans la pompe à vélo, de la gravité, tout simplement.

Alors depuis la fin des années 1970 la fiction de l’effet de serre du CO2 s’est répandue dans le monde entier et cette fiction est devenue progressivement une réalité, un dogme, qu’il n’est plus possible de nier sous l’impulsion de groupes écolo-gauchistes trop heureux d’avoir trouvé un prétexte pour justifier leurs idéologies malthusiennes en prenant ce supposé dérèglement du climat provoqué par l’activité humaine comme prétexte pour mettre dans la même brouette la protection des animaux et de l’environnement, le droit au respect des minorités, l’égalité des sexes, la nécessité de devenir végétarien et bien d’autres rubriques toutes aussi burlesques les unes que les autres.

L’ultime cause à défendre ou plutôt la première cause sur laquelle intervenir, basée cependant sur la fausse affirmation que le CO2 est à l’origine du mal, est de progressivement « décarboner » la planète pour « sauver » le climat et par conséquent pour sauver l’humanité. Les médias du monde entier ont relayé ces arguments de choc et de nombreux pays ont mis en place un enseignement dans les écoles pour dès le plus jeune âge formater la jeunesse à cette idéologie. Très vite les lobbys financiers et industriels ont compris qu’il y avait du très gros business adossable à cette nouvelle idéologie, maintenant que l’opinion publique est devenue réceptive, peut-être pas dans tous les pays mais au moins dans la plupart de ceux dits de l’OCDE. Beaucoup de gouvernements trainent encore les pieds pour encourager les industriels à faire leur révolution verte mais les activistes écolo-gauchistes en veulent toujours plus. Ici et là la population se rebiffe comme c’est le cas en France avec les « Gilets jaunes ». Le Président américain a quitté le traité de Paris sur le climat car il est soucieux de préserver l’économie chancelante d’Etats comme la Virginie de l’ouest dotée d’immenses réserves de charbon. Comme ces mêmes écolo-gauchistes sont toujours hantés par une phobie irrationnelle du nucléaire d’autres Etats américains comme la Californie ou encore le Vermont ont décidé de fermer des installations électro-nucléaires mettant en péril la production d’électricité alors que cette technologie n’utilise pas de combustible fossiles et par conséquent ne produit pas de CO2. Première victime de cette idéologie climatique la faillite de PG&E aussi monstrueuse que celle de Lehmans Brothers ! Pacific Gas and Electricity est la « utility » californienne de production et de distribution de l’électricité et du gaz, c’est l’équivalent d’EDF-GDF (Engie maintenant) en France, et sachant que le PIB de la Californie est pratiquement équivalent à celui de la France, il est facile de comprendre la monstruosité de cette faillite. Tous les Californiens vont payer et très cher y compris les « GAFA ».

Capture d’écran 2019-02-06 à 20.27.51.png

Maintenant que la population est idéologiquement bien préparée, du moins la jeunesse qui ne paie pas encore d’impôts – et c’est important de le mentionner – il restait à mettre en place un agenda pour concrétiser l’évolution vers une économie mondiale sans carbone. Dans ce but une déclaration co-signée par 27 Prix Nobel d’économie, qui comme chacun ne l’ignore pas sont aussi des spécialistes du climat, joints à tous les anciens gouverneurs de la FED et 15 conseillers économiques anciens ou récents du Président des Etats-Unis a été publiée dans le Wall Street Journal il y a quelques jours. Cette déclaration résume en cinq points l’agenda pour décarboner les USA et elle devrait s’appliquer à tous les autres pays : si c’est bien pour les USA c’est bien aussi pour le reste du monde, comme on va le découvrir … Voici donc cet agenda en 5 points dont la traduction a été trouvée sur le quotidien suisse-romand Le Temps l’accès au WSJ étant payant.

1. Une taxe carbone offre le moyen le moins coûteux de réduire les émissions de CO2 à l’échelle et à la vitesse nécessaire. En corrigeant un dysfonctionnement bien connu des marchés, une taxe carbone enverra un puissant signal, apte à mobiliser la main invisible du marché pour diriger les acteurs économiques vers un futur à bas carbone.

2. La taxe carbone devrait augmenter chaque année, jusqu’à ce que les objectifs de réduction d’émissions soient atteints. Ils doivent être neutres en termes de pression fiscale pour éviter de relancer le débat sur cette question. L’augmentation continue du prix du carbone encouragera les innovations technologiques et le développement des infrastructures. Elle permettra aussi la diffusion de produits et de services économes en carbone.

3. Une taxe carbone suffisamment robuste et en augmentation progressive remplacer les diverses réglementations sur le carbone, qui sont moins efficaces. En remplaçant les réglementations encombrantes par le signal du prix, elle promouvra la croissance économique et assurera la stabilité dont les entreprises ont besoin pour investir dans des solutions énergétiques propres.

4. pour éviter des fuites et protéger la compétitivité des Etats-Unis, un ajustement aux frontières doit être établi (il s’agit de taxer les produits importés de pays qui n’appliquent pas la taxe carbone). Un tel système permettra de renforcer la compétitivité de celles des entreprises américaines qui sont plus efficaces en matière d’utilisation de l’énergie que leurs concurrents étrangers. Ce système encouragera aussi les autres pays à adopter la taxe carbone.

5. Pour assurer l’équité et la viabilité politique de la taxe carbone, tous les revenus collectés devront être rendus aux citoyens sous la forme de versements forfaitaires égaux. La majorité des familles américaines, y compris les plus vulnérables, y gagneront en recevant plus sous la forme de « dividendes carbone » qu’elles ne paieront sous la forme d’augmentation des prix de l’énergie.

On croit rêver ! Qui connaît des financiers philanthropes refusant de réaliser des profits ? Qu’il lève le doigt ! Au final ce sont donc bien les entreprises et les consommateurs qui paieront et les organismes financiers et les Etats qui se serviront au passage. Il n’y a même pas besoin d’avoir fait des études poussées en économie pour comprendre ça, c’est du bon sens. L’ajout en caractères italiques est du fait du traducteur mais il est bien significatif. L’installation d’une taxe carbone, pour être opérante, devra être le fait de tous les pays sauf peut-être ceux qui ne font qu’exporter des denrées agricoles comme par exemple la Côte-d’Ivoire qui exporte du cacao, le cacao étant en fait du carbone immobilisé ou l’Indonésie qui exporte de l’huile de palme qui est aussi essentiellement du carbone immobilisé (des bienfaiteurs du climat !). En toute logique il faudrait rétrocéder des dividendes carbone à ces pays ! En conclusion l’instauration d’une taxe carbone universelle ne pourra être atteinte qu’avec une gouvernance mondiale autoritaire. Il aura fallu près de 40 depuis les affirmations mensongères de James Hansen pour que le monde financier réagisse pour son seul profit et accélérer la mise en place de cette gouvernance mondiale.

Suite de la « financiarisation du climat » dans un prochain billet.

Note. Au sujet du gradient adiabatique imposé à l’atmosphère par la gravité il est utile de relire le billet mis en ligne le premier novembre 2014 sur ce blog :

https://jacqueshenry.wordpress.com/2014/11/01/retour-sur-la-theorie-de-leffet-de-serre-atmospherique/

L’effet de serre du CO2 : réalité ou fiction ?

Capture d’écran 2018-06-17 à 18.25.16.png

Les ingénieurs experts dans l’industrie des radiations infra-rouges, en particulier celle du chauffage domestique, sont formels : la théorie de l’effet de serre du gaz carbonique atmosphérique est fausse. Seuls les modèles fantaisistes des climatologues prennent en considération cette théorie pour expliquer le réchauffement du climat d’origine humaine. Revenons aux origines de la physique c’est-à-dire à la loi de Newton sur le refroidissement qui stipule que « La vitesse de perte de chaleur d’un corps est proportionnelle à la différence des températures entre celle de ce corps et celle de son environnement« . Il s’agit de la loi de physique qui définit le flux de chaleur entre deux corps physiques en contact et dans le cas qui nous préoccupe entre la l’atmosphère et la surface de la Terre et des océans. Elle s’écrit ainsi :

T2 = T0 + (T1 – T0) e (-kΔt)

où :

T2 est la température finale du corps considéré,

T1 est sa température initiale,

T0 est la température de l’espace environnant,

Δt est le temps d’équilibre entre les températures T2 et T1

k est une constante à déterminer et qui requiert des calculs dont aucun d’entre eux n’a de lien avec la radiation infra-rouge émise par le corps considéré.

La théorie de l’effet de serre tente de définir les transferts de chaleur entre la Terre et l’atmosphère en utilisant la loi de Stefan-Boltzmann relative aux radiations infra-rouges qui nécessite un facteur qui est absent dans ce cas : la partie la plus basse de l’atmosphère devrait selon cette loi être séparée de la surface de la Terre par du vide, or elle est directement en contact avec la surface terrestre et celle des océans. Seule la loi du refroidissement de Newton peut donc s’appliquer dans le cas du système Terre-atmosphère. N’est-il pas axiomatique de ne pas pouvoir obtenir la bonne réponse quand on utilise la mauvaise loi pour décrire un phénomène ? Puisque Newton est mentionné ici auriez-vous la prétention d’utiliser la loi de la chute d’une sphère d’une hauteur de 5 mètres pour déterminer son volume ?

La question qui nous intéresse est donc de savoir si oui ou non il est possible de chauffer l’atmosphère à l’aide de radiations infra-rouges. Et si c’est le cas comment un tel transfert de chaleur entre la surface de la Terre et l’atmosphère selon la loi de Newton du refroidissement est-il affecté.

Plutôt que de faire des spéculations examinons ce que des centaines d’expériences scientifiques et des millions d’heures de retour d’expérience de chauffage domestique ont montré. D’abord considérons les travaux de John Tyndall (1820-1893), un physicien du XIXe siècle qui réalisa un grand nombre d’expériences dans son laboratoire pour tester l’aptitude de divers gaz à bloquer la transmission des rayons infra-rouges qu’il appela à l’époque les « rayons calorifiques ». Il testa par exemple le gaz carbonique jusqu’à une concentration de 80000 ppm, soit 200 fois plus que la teneur actuelle en ce gaz dans l’atmosphère et il conclut ainsi :

« Le gaz carbonique est l’un des plus faibles (feeblest dans le texte de Tyndall) absorbants de la chaleur radiante émise par une source solide. Il est par exemple extrêmement transparent au rayons émis par la plaque de cuivre chauffée à laquelle nous nous référons » (voir le lien en fin de billet).

Tyndall nota aussi qu’aux concentrations atmosphériques le gaz carbonique n’avait aucun effet sur la température de l’air quelle que soit la quantité de « radiations calorifiques » la traversant. Il écrivit : « À travers l’air (…) les ondes de l’éther passent sans absorption, et la température de ces gaz n’est pas sensiblement modifiée par les plus puissantes radiations calorifiques. »

En dépit de ces observations Svante August Arrhenius (1859-1927) spécula 30 ans après ces travaux de Tyndall que le gaz carbonique augmente la température du sol non pas selon la loi de Newton mais selon celle de Stefan-Boltzmann. Pour tester l’hypothèse d’Arrhenius le physicien suédois Knut Ångström (1857-1910) publia en 1900 des expériences qu’il réalisa dans son laboratoire dans un article intitulé « De l’importance de la vapeur d’eau et du dioxyde de carbone dans l’absorption de l’atmosphère« . (Annalen der Physik Bd3. 1900, p720-732). L’expérience d’Angström consistait à remplir un tube de verre avec un gaz contenant du CO2 simulant une colonne d’air en contact avec le sol et atteignant le sommet de l’atmosphère. Il fit varier la teneur en gaz carbonique de moitié puis en la doublant et il fut incapable d’observer un quelconque changement de la température du gaz contenu dans cette colonne de verre quelle que soit l’intensité de la source d’infra-rouges.

Capture d’écran 2018-06-17 à 17.25.24.png

Les observations d’Angström ont été confirmées par des millions d’heures d’utilisation des chauffages domestiques à infra-rouges par les ingénieurs et techniciens de cette discipline. Voici ce qu’ils en disent : « L’énergie infra-rouge se déplace à la vitesse de la lumière sans chauffer l’air qu’elle traverse car les radiations infra-rouges ne sont absorbées par le gaz carbonique, la vapeur d’eau et les autres gaz présents dans l’atmosphère que de manière négligeable. Les appareils de chauffage infra-rouge atteignent les objets présents dans une pièce mais n’affectent en rien l’air contenu dans une pièce. C’est le rayonnement diffus qui en résulte qui fait qu’une personne se sent confortable dans une pièce chauffée par un tel système de chauffage« .

Ainsi ce dont nous disposons est d’une part une somme d’ expérimentations scientifiques et d’autre part les observations du monde réel dans le domaine de l’application des rayons infra-rouges qui démontrent que les radiations IR ne chauffent pas l’air, et pourquoi ? Tout simplement parce qu’il a été démontré depuis la fin du XIXe siècle qu’une molécule de ces gaz composant l’atmosphère absorbent les rayons infra-rouges mais les réémettent tout aussitôt. John Tyndall écrivit aussi : « Selon cette expérience il a pu être prouvé qu’un arrangement moléculaire rendant un gaz un puissant absorbant de radiations calorifiques le rend aussi un puissant émetteur de ces radiations. Ainsi, alors que les atomes des gaz élémentaires de l’atmosphère font qu’ils sont incapables d’émettre de la chaleur radiante ils ont pu être montrés comme des perturbateurs de l’éther environnant« . En d’autres termes – disons « plus modernes » – accroître la teneur en gaz carbonique de l’atmosphère accroît aussi l’émissivité de l’atmosphère. La loi de Stefan-Boltzmann définit la relation entre l’atmosphère et l’espace et un paramètre de cette loi décrit l’émissivité de l’atmosphère. Il a depuis longtemps été démontré qu’une constante d’émissivité élevée permet à la matière d’émettre la même quantité d’infra-rouges à une température plus basse. L’hypothèse de l’effet de serre suggère au contraire qu’accroître l’émissivité de l’atmosphère en ajoutant des « gaz à effet de serre » aura l’effet inverse et nécessitera alors que l’atmosphère soit plus chaud afin d’émettre la même quantité de rayonnement infra-rouge vers l’espace.

Comment peut-on ne pas comprendre que certaines personnes soient sceptiques au sujet d’une théorie qui d’une part utilise la mauvaise loi de la physique pour définir la relation entre l’atmosphère et l’espace extra-planétaire et qui d’autre part applique la loi de Stefan-Boltzmann à l’inverse de sa définition première !

Traduction aussi fidèle que possible d’un article écrit par Carl Brehmer, ingénieur thermicien dans l’industrie du chauffage domestique, en 2012 et paru sur le site de John Sullivan. Il est parfois salutaire de réexaminer les résultats scientifiques acquis il y a près de 150 ans.

De récentes publications scientifiques confirment les travaux de Tyndall qui ne disposait pas de thermomètre sensible au centième de degré. Par exemple un récent article du docteur B. M. Smirnov (lien) démontre que ce qui est suggéré dans l’article de Brehmer, à savoir la réémission du rayonnement infra-rouge par les molécules des gaz constituant l’atmosphère conduit à un élargissement des bandes d’absorption de ces derniers et que par conséquent un doublement de la teneur en gaz carbonique dans l’atmosphère provoquerait un accroissement d’au plus 0,4 °C au sol. Or comme la quantité totale du CO2 atmosphérique produite directement par l’activité humaine n’est que de 5 % du total de ce CO2 la contribution d’origine humaine dans l’évolution récente de la température de la planète Terre n’est que de 0,02 °C ! Il n’y a pas lieu de s’alarmer plus avant car il y a encore de la marge pour tous être grillés comme des toasts comme le clamait il y a quelques années la Directrice du FMI Christine Lagarde.

Tyndall J., Fragments of Science : A series of Detached Essays, Addresses ans Reviews, (1879) disponible sur le site http://www.gutenberg.org

B.M. Smirnov, Journal of Physics D, doi : 10.1088/1361-6463/aabac6

Crise climatique : retour sur l’imposture de l’effet de serre

Titan,_Earth_&_Moon_size_comparison.jpg

Le premier novembre 2014 j’avais écrit un long billet un peu technique sur le concept erroné de l’effet de serre du CO2 et d’autres gaz et mon opinion à ce sujet n’a pas changé. Il se trouve que la question négligée du gradient adiabatique de l’atmosphère terrestre soumis au champ gravitationnel de la Terre comme chacun de nous et comme tout objet « pesant » refait surface dans de nombreux articles scientifiques parus récemment dont celui cosigné par N. Nikolov et K. Zeller publié dans la revue Environment Pollution and Climate Change 2017, 1: 112. Ces auteurs ont comparé l’effet de la gravité sur l’atmosphère de Vénus, de la Terre, de la Lune, de Mars, de Titan et de Triton. Les observations astronomiques relatives à ces corps célestes sont suffisamment documentées pour précisément calculer l’effet de la gravité de ces derniers sur leurs atmosphères parfois très ténus mais tout de même étudiés en détail. Titan est une « lune » de Saturne et Triton une « lune » de Neptune. Toutes les lois physiques qui sont naturellement applicables et valables pour les différents corps célestes du système solaire conduisent, lorsque l’on prend en considération l’ensemble des observations relatives à ces 6 corps, à la conclusion que la théorie de l’effet de serre qui n’est pas observée sur ces corps célestes est donc invalide également pour la Terre et également Vénus quoiqu’en pensa James Hansen, l’un des malheureux promoteurs de la théorie désuète et jamais validée par l’expérience de l’effet de serre.

En effet, l’effet de serre tel qu’il est prêché par l’IPCC n’est pas un phénomène radiatif alimenté par l’opacité de l’atmosphère au rayonnements infra-rouges mais la conséquence d’un réchauffement seulement induit par le gradient adiabatique, directe conséquence du champ gravitationnel, gradient qui est indépendant de la composition de l’atmosphère. De plus, la température au sol observée pour chacun de ces corps célestes n’est pas le résultat d’un forçage radiatif comme cela a été imaginé il y a plus de 100 ans mais seulement le simple résultat de la pression atmosphérique existant au sol. L’albédo des différents corps célestes (dont la Terre) n’est pas un facteur climatique indépendant mais une conséquence du climat. Cependant cet albédo (propriété de réfléchir le rayonnement solaire aux hautes altitudes) est soumis aux variations du champ magnétique solaire et du vent solaire ainsi qu’aux rayons cosmiques.

La pression atmosphérique en tant que force par unité de surface a un effet direct sur l’énergie cinétique interne à l’atmosphère et la température du système atmosphérique (quels que soient les corps célestes cités dans cette étude) est en accord avec les lois régissant le comportement des gaz. Dès lors le gradient de pression atmosphérique est le seul facteur prépondérant contrôlant la température de surface de la planète (ou de la « lune » considérée) et non pas la « profondeur optique » de l’atmosphère aux infra-rouges qui varie de manière continue en raison également de ce gradient de pression.

L’équilibre thermique à la surface des corps célestes étudiés reste stable dans une plage de +/- 1 °C pour toutes ces raisons et bien entendu en dehors de toute variation de l’activité radiative solaire ou du champ magnétique solaire. Cette dernière activité fluctue d’ailleurs dans une plage infime de l’ordre de 2 à 3 ‰ . Cet article réfute donc l’hypothèse de l’ « effet de serre » qui n’a jamais été prouvée scientifiquement à moins de délibérément ignorer un certain nombre de lois physiques fondamentales. C’est exactement ce que les pseudo-climatologistes de l’IPCC font depuis maintenant plus de 20 ans et jamais personne n’a osé les contredire frontalement comme viennent de le faire ces deux personnalités à qui il faut rendre hommage pour leur honnêteté, leur courage et le risque qu’ils encourent de voir tous leurs crédits de recherche annulés sine die pour satisfaire des dispositions plus politiques que scientifiques totalement erronées.

Illustration : la Terre, la Lune et Titan à la même échelle (Wikipedia)

https://jacqueshenry.wordpress.com/2014/11/01/retour-sur-la-theorie-de-leffet-de-serre-atmospherique/

Changement climatique ? De quoi parlons-nous ?

800px-NASA-Apollo8-Dec24-Earthrise.jpg

La Terre tourne autour du Soleil en suivant une trajectoire elliptique qui n’est pas parfaite car c’est le centre de gravité du couple Terre-Lune qui suit cette trajectoire et non pas notre planète. Mais négligeons ces petites facéties de parcours. Le Soleil se trouve à l’un des foyers de l’ellipse que suit la Terre. Il y a donc au cours de la rotation de la Terre autour du Soleil une variation de la distance Soleil-Terre, certes faible, mais non négligeable de 5 millions de kilomètres. Les termes savants décrivant ces deux positions extrêmes sont l’aphélion début juillet au moment où la Terre est la plus éloignée du Soleil et le périhélion début janvier au moment où la Terre se trouve la plus proche de l’astre de vie. Pour se faire une idée de cette différence de distances elle est égale à 13 fois la distance Terre-Lune. Ces deux positions ne coïncident pas avec les solstices.

Il en résulte donc tout naturellement une variation de la quantité d’énergie en provenance du Soleil atteignant la Terre. Cette variation moyennée est de 22 watts par mètre carré entre janvier et juillet. Si la théorie de l’effet de serre du CO2 était exacte il faudrait que la teneur en ce gaz passe de 400 parties par million en volume (ppmv) en juillet pour atteindre 24700 ppmv en janvier pour que l’on observe une telle différence d’énergie due à cette seule concentration en CO2 atmosphérique atteignant la Terre comme conséquence de cet « effet de serre ». Cette simple remarque relativise l’alarmisme de l’effet de serre !

Fort heureusement le système atmosphère-océans remet de l’ordre et les différences de température ressenties sont très largement amorties. Cependant il faut entrer dans les détails des observations satellitaires pour comprendre comment les faits se déroulent. Curieusement la température moyenne des océans n’évolue pas comme on pourrait s’y attendre de la même façon dans l’hémisphère sud et dans l’hémisphère nord. Puisque la Terre est plus proche du Soleil en janvier on devrait s’attendre à un été austral plus chaud que l’été boréal six mois plus tard avec un Soleil plus éloigné. Or ce n’est pas le cas car l’inertie thermique des océans du sud est plus marquée que celle des océans du nord. Comme l’indique la figure ci-dessous le différentiel de températures de la surface des océans est plus important dans l’hémisphère nord :

Capture d’écran 2016-06-20 à 14.47.49.png

Cette figure décrit l’anomalie des températures de la surface des océans mesurée à l’aide du satellite CERES rapportée à la variation du flux solaire (TOA = top of atmosphere) en utilisant un outil mathématique tenant compte des latitudes. La présence du continent Antarctique recouvert de glace alors que la calotte glaciaire boréale est flottante n’a pas d’influence sur cette anomalie car en se limitant aux zones situées entre 60 degrés nord et 60 degrés sud, le même type d’anomalie est retrouvé.

343px-Conveyor_belt.svg.png

Pourquoi alors les océans du nord se réchauffent plus que les océans du sud et vice-versa se refroidissent plus ? La réponse à cette question réside peut-être dans la configuration des courants marins et des continents. En effet, il y a plus de terres émergées dans l’hémisphère boréal et moins de courants de surface et chauds (en rouge) et profonds et froids (en bleu) que dans la confluence des océans Pacifique, Indien et Atlantique dans l’hémisphère sud autour du continent Antarctique. Ces courants, dits thermohalins puisqu’ils résultent essentiellement de différences de densité de l’eau dues à la salinité et à la température, redistribuent plus efficacement l’énergie solaire emmagasinée par les océans dans l’hémisphère sud que dans l’hémisphère nord. Ceci explique que les hivers des régions australes sont plutôt modérés et que les saisons boréales sont plus contrastées.

Finalement la mécanique céleste et l’activité solaire se sont conjuguées dans une harmonie peut-être unique dans l’univers pour que la planète Terre soit habitable et ce ne sont pas des variations infinitésimales de la teneur en gaz soit-disant à effet de serre qui y changeront quoi que ce soit.

Inspiré d’un article paru sur le site Wattsupwiththat

COP21. L’effet de serre : devrons-nous un jour payer une taxe pour avoir le droit de respirer ???

Capture d’écran 2015-11-12 à 11.54.42.png

La climatologie, cette science (onusienne) dont on parle abondamment, jusqu’à la nausée, depuis plus de 20 ans n’est pas originellement une science du futur mais une science du passé. Que connaît-on du climat futur ? Rien, absolument rien puisqu’il est strictement impossible de procéder à des observations sur des faits qui n’ont pas encore eu lieu, par définition. La climatologie telle qu’elle est abordée aujourd’hui pour prédire l’avenir du climat de la Terre à l’aide de modélisations toutes aussi éloignées les unes que les autres d’une réalité qui n’est pas encore survenue n’est pas une science, tout au plus une sorte de jeu numérique sans signification. Toute discipline scientifique expérimentale se doit d’apporter des preuves sinon irréfutables du moins vérifiables pour étayer des hypothèses de travail. Si ces dernières ne sont pas vérifiables par des tiers, alors ces hypothèses ne sont pas valables. Dans le cas de la climatologie prospective au sens strict il est impossible d’apporter des preuves tangibles permettant d’affirmer telle ou telle évolution du climat futur. En conséquence et selon les critères fondamentaux de la déontologie scientifique toutes les prédictions relatives au futur du climat, ou au climat du futur, ne sont que des errements intellectuels sans fondement. Seuls des modèles étayés par des observations passées et étant validés par ces mêmes observations peuvent éventuellement aboutir à quelques tendances mais prédire l’état futur du climat à un ou deux degrés près relève de la plus pure spéculation.

Effet de serre

La théorie de l’effet de serre n’a jamais été démontrée et ne le sera jamais car l’atmosphère terrestre est un système ouvert vers l’espace et non une boite de verre comme une serre d’horticulteur. Il suffit de contempler cette belle photo (NASA) de la Lune avec l’atmosphère terrestre en premier plan. Cette théorie est en contradiction avec les principes fondamentaux de la thermodynamique. Cette contradiction est formulée simplement ainsi : un corps froid ne peut pas transmettre d’énergie sous quelque forme que ce soit, par collision moléculaire ou par rayonnement électro-magnétique, à un corps plus chaud. Considérer que des gaz comme le CO2 ou le méthane puissent induire un effet de serre et puissent « réchauffer » de ce fait la Terre est une violation claire de ce deuxième principe de la thermodynamique. Cette imposture a été formulée par James Hansen (NASA), spécialiste de l’atmosphère de la planète Vénus. Son idée erronée devait expliquer pour la Terre la différence de température moyenne entre le sol et la couche atmosphérique (à environ 5000 mètres d’altitude) où on retrouve une température de – 18 °C, la température théorique du modèle du corps noir expliquant le comportement thermodynamique de la Terre dans l’Espace (voir note 1). Ce monsieur a tout simplement oublié de prendre en considération dans l’élaboration de sa théorie de l’effet de serre que l’atmosphère était soumise au champ gravitationnel terrestre (gradient adiabatique) et que du fait de la gravité, la pression atmosphérique est plus élevée au sol qu’à 5000 mètres d’altitude et par voie de conséquence, selon trois lois physiques fondamentales qui décrivent le comportement des gaz en fonction de la température et de la pression, la loi de Boyle-Mariotte, la loi de Charles et la loi d’Amontons (voir note 2), la température moyenne au sol est de 15 °C. Apparemment Hansen avait « oublié » ce détail, voir aussi la note 3 en fin de billet.

Après avoir donc ignoré d’une manière pas très élégante la loi de Henry décrivant la dissolution des gaz dans l’eau, à nouveau quatre autres lois fondamentales appartenant également à la discipline générale de la physique appelée thermodynamique ont été mises de côté pour échafauder la théorie de l’effet de serre et le rôle du CO2 dans cet effet. Ça commence à faire vraiment désordre !

Peut-être qu’un jour nous devrons payer une taxe pour avoir le droit de respirer puisque nous rejetons du carbone dans l’atmosphère : est-ce le but ultime de cette COP21 ?

Note 1. Appliquer le modèle du corps noir de Max Planck est une approximation hasardeuse car elle suppose que les courbes de Planck soient continues quand on applique les lois de Stefan-Boltzmann à la Terre. Or, en raison des propriétés spectroscopiques des gaz constituant l’atmosphère, cette courbe appliquée à la Terre considérée comme un corps noir à la température de – 18 °C dans l’Espace n’est pas continue et introduit donc des incertitudes inacceptables. Ces incertitudes ont été exploitées à dessein pour conforter la théorie de l’effet de serre.

Note 2. Les trois lois physiques mentionnées ci-dessus sont combinées pour formuler la loi dite des gaz parfaits qui n’a jamais été remise en cause : PV = nRTP est la pression du gaz (pascals), V le volume de ce gaz (m3), n la quantité de substance de ce gaz (moles), R la constante des gaz, produit de la constante de Boltzmann et de la constante d’Avogadro (8,31 joules par degré K par mole) et T la température exprimée en degrés Kelvin. L’application stricte de cette loi à l’atmosphère requiert d’introduire la vapeur d’eau. Or la vapeur d’eau atmosphérique subit en permanence des changements d’état du gaz vers le liquide et/ou vers la glace. Il était très « ennuyeux » d’inclure dans la formulation de l’effet de serre la présence de vapeur d’eau atmosphérique, il n’en a tout simplement pas été tenu compte : ça s’appelle de l’honnêteté scientifique.

Note 3. Il faut toutefois insister sur la notion de température moyenne au sol car elle introduit une importante approximation dans les estimations des variations des températures et de leur évolution. De ce fait ces approximations ont permis de développer des modèles climatiques prédictifs totalement erronés en choisissant des températures moyennes de référence fantaisistes mais qui « arrangent » les développeurs des modèles climatiques. Plutôt que de mentionner des températures moyennes et leur évolution par rapport à une référence, il serait beaucoup plus honnête de considérer les données brutes. C’est ce à quoi se sont attaché un certain nombre de scientifiques et ils sont allés de surprise en surprise. L’ensemble des données passées a été largement truqué pour satisfaire à la théorie de l’effet de serre comme par exemple les relevés de température effectués dans l’Indiana depuis 1895 :

Capture d’écran 2015-11-23 à 17.06.16.png

En rouge la courbe d’évolution des températures issue des données brutes. En bleu la même courbe « ajustée » par la NOAA selon des critères permettant de faire ressortir un réchauffement conforme à la théorie de l’effet de serre. À partir des données brutes la régression linéaire fait apparaître un refroidissement ténu de 0,01 degré F par décennie …

Changement climatique, épisode 8 : Qu’est devenue l’intégrité des scientifiques climatologues ?

Capture d’écran 2015-09-07 à 17.46.04

L’IPCC n’a pas cessé de modifier ses prévisions de réchauffement au cours des années passées. Par exemple en 2007 cet organisme inféodé aux idéaux malthusiens des écologistes politiques clamait qu’il faudrait stabiliser les émissions de carbone en 2015 pour rester dans la limite de 2 °C de réchauffement à la fin du siècle. Le cinquième rapport de ce même organisme faisait mention de 2030 pour ce même objectif étant en cela appuyé par l’UNEP (UN Environment Program). Pour atteindre cet objectif il était clairement conseillé aux décideurs de développer les carburants « verts » et il faut le lire pour le croire : «  il faudra convertir 500 millions d’hectares de terre arable pour produire des biocarburants », c’est une fois et demi la surface de l’Inde ! Ces « experts » de l’IPCC conseillaient également aux décideurs politiques (déjà en 2007) d’accélérer la recherche dans les technique de capture et de stockage du CO2. Or rien n’a encore pu être réalisé dans ce domaine qui puisse être développé au stade industriel et la faisabilité même de ces technologies reste encore à démontrer en 2015. Quand il a été demandé à ces « experts » de bien vouloir préciser leurs calculs et leurs modélisations reliant les émissions de CO2 à l’augmentation de la température, encore une fois leur attitude a semé le doute dans les esprits car aucune réponse crédible n’a pu être apportée. L’IPCC est donc un organe hautement politisé qui tente d’influencer les scientifiques et les ingénieurs travaillant dans ce domaine. Et ces acteurs essentiellement mandatés par les Nations-Unies pour infléchir les décisions politiques des gouvernements ne s’appuient sur aucune évidence scientifique. Les politiciens doivent être informés des évidences scientifiques et non de faits biaisés pour la « cause » de la perturbation climatique globale d’origine anthropique.

Cette brève entrée en matière résume un commentaire paru dans Nature sous la plume d’Oliver Geden, directeur de la division recherche de l’Union Européenne à Berlin au sein de l’Institut Allemand des Affaires de Sécurité Internationale (voir le lien).

Parmi les acteurs influents oeuvrant pour la « cause » climatique il y a aussi la NASA et une nébuleuse d’agences gouvernementales américaines dont par exemple la NOAA. Mais la NASA dans le genre désinformation a fait très fort en se contredisant et de ce fait en ternissant son image d’intégrité scientifique. L’intégrité des sciences de base comme la physique, la chimie et la biologie repose sur des règles de reproductibilité de tous les travaux publiés de façon suffisamment claire et détaillée pour qu’ils puissent être justement reproduits par n’importe qui, n’importe où et à n’importe quel moment. La reproductibilité universelle conjuguée à l’aspect général de précision et de sensibilité des mesures expérimentales constitue le fondement même de l’acceptation par la société de l’intégrité de ces sciences de base, tant que les observations et expérimentations scientifiques concernent des corps physiques, des substances chimiques ou des organismes vivants. Dans les sciences dites appliquées et en particulier dans le domaine du climat et de la météorologie ces principes fondamentaux ont été parfois l’objet de contestations et de conflits. Il en est résulté une érosion de ces principes de reproductibilité, de précision et de sincérité en regard des intérêts sociologiques car l’économie et la prévention des risques ont surpassé en importance ces principes. Il est donc opportun de se positionner de manière critique quand on analyse l’intégrité de ces sciences appliquées.

La problématique du CO2 pose une question : comment le mélange chimique de molécules de gaz atmosphériques qui sont les uns insensibles aux rayonnement infra-rouges et les autres sensibles à ces derniers impacte-t-il les flux d’énergie de la surface de la Terre vers les hautes couches de l’atmosphère puis vers l’Espace. Si cette question ne doit pas trouver de réponse satisfaisante avec la physique et la chimie fondamentales mais avec la météo et le climat on peut alors émettre des doutes quant à l’intégrité scientifique de ces dernières sciences appliquées. La critique peut être motivée pour des raisons éthiques ou politiques mais in fine elle doit s’appuyer sur les sciences de base elles-mêmes.

Cette problématique du CO2 concerne la composition chimique de l’atmosphère et le flux d’énergie depuis le sol jusqu’aux hautes couches de l’atmosphère. Ces deux points concernent d’une part la chimie en ce qui concerne la composition de l’atmosphère et la physique en ce qui concerne l’énergie. Ces deux disciplines constituent la chimie physique fondamentale. Cette science doit donc être susceptible de clarifier la problématique du CO2. Si l’on se place du point de vue d’un physico-chimiste, la science climatique s’est déjà rendue vulnérable en avançant l’approximation mathématique de la Terre stipulant que celle-ci peut être décrite comme un « corps noir » à la température de – 18 °C. Or l’expression mathématique décrivant un corps noir est une fonction continue sur tout le spectre électromagnétique et cette approximation doit être valable aussi bien pour les longueurs d’onde du visible que pour celles des infra-rouges. N’importe qui peut se rendre compte que le ciel est bleu, la Terre est verte quand elle n’est pas désertique et les océans, qui couvrent plus des deux tiers de la surface de la Terre sont loin d’être à – 18 °C et seraient plutôt noirs s’il ne reflétaient pas durant la journée la couleur du ciel ! Enfin les physico-chimistes savent très bien que la molécule d’eau qui émet des radiations dans la bande des infra-rouges n’est pas un émetteur continu sur toute la plage des longueurs d’onde comme le décrivent les équations du corps noir de Max Planck. Cette température de – 18 °C se trouve dans tous les livres mais elle est basée uniquement sur ces deux hypothèses de la science climatique : en regard du Soleil et de l’Espace, et thermiquement, la Terre est un corps noir à – 18 °C . Sans aller plus loin dans les détails (je sens que certains de mes lecteurs sont déjà découragés) il suffit d’examiner comment la question du CO2 a été abordée par une organisation scientifique a priori extrêmement méritoire, en appliquant les connaissances accumulées par la science spatiale. La NASA, puisque c’est d’elle dont il s’agit, a rassemblé tous les flux d’énergie en provenance du Soleil à travers l’atmosphère et les flux d’énergie en provenance de la Terre vers l’Espace. Jusqu’en 2009 ce que la NASA appela le budget énergétique de la Terre ressemblait à ça :

Capture d’écran 2015-09-10 à 08.12.38

Il s’agit d’une approximation puisque les grandeurs figurant dans cette illustration ( W/m2 – en rouge – ou pourcentages) sont moyennées. Il y aurait beaucoup à redire sur la méthode utilisée pour obtenir ces valeurs moyennes car la Terre est ronde et elle tourne sur elle-même mais il serait long et compliqué d’entrer dans des considérations mathématiques laborieuses pour démontrer point par point que l’approximation utilisée par la NASA est fausse. Par rapport au Soleil et à l’Espace la Terre se comporte effectivement comme un corps noir à la température de – 18 °C à condition toutefois d’inclure dans cette approximation une autre approximation qui est le facteur d’erreur de réflexivité de 30 % ! Ce n’est pourtant pas le cas si on considère la surface de la Terre et l’environnement thermique dans l’infra-rouge et pour une raison très simple : il n’existe pas de stations d’observation fixes dans l’atmosphère permettant de mesurer les flux thermiques. Les satellites (de la NASA) mesurent la totalité du flux solaire entrant vers la Terre diminué de 30 %. Les satellites ne peuvent pas déterminer d’où ces radiations infra-rouges proviennent en direction de l’atmosphère, c’est-à-dire qu’il existe une incertitude impossible à élucider avec des satellites : on ne sait pas mesurer quelle est la part de rayonnements infra-rouges provenant de la surface de la Terre ou d’un quelconque niveau de l’atmosphère. C’est l’incertitude dont j’ai parlé lors d’un précédent billet de ce blog. Pour faire bref, les photons infra-rouges émis par une molécule d’eau de la vapeur composant l’atmosphère ne savent pas s’ils doivent retourner vers la surface de la Terre ou rayonner vers l’Espace. La quantification de la radiation thermique infra-rouge – 6 % provenant de la surface terrestre et 64 % provenant de l’atmosphère – peut dès lors paraître plausible.

Il reste cependant un problème non résolu par les observations satellitaires : pour inclure le rôle du CO2 dans le processus de dissipation vers l’espace de l’énergie solaire parvenue vers la Terre il faut donc admettre que seule l’atmosphère joue ce rôle de transfert de l’énergie thermique. Le rôle dans ce processus de la surface de la Terre est alors négligé et la Terre se comporte effectivement comme un corps noir à la température de – 18 °C à la seule condition, encore une fois, que seule l’atmosphère joue un rôle dans ce processus. Cette hypothèse est naturellement fausse compte tenu des observations au sol.

C’est alors qu’apparut une modification du schéma résumant les observations de la NASA en 2009 faisant intervenir le fameux effet de serre car la supercherie devait bien être expliquée d’une manière ou d’une autre et de surcroit très officiellement par un organisme connu par ailleurs pour ses prouesses spatiales passées.

Pour une bonne compréhension de ces deux schémas et afin de pouvoir les comparer, valeurs des flux d’énergie (dans le premier schéma) et pourcentages (dans le deuxième schéma) ont été surajoutés en rouge aux schémas de la NASA. Le premier schéma est globalement cohérent mais dans ce schéma il est crucial que les molécules d’eau et de CO2, les seuls constituants de l’atmosphère actifs dans le processus d’élimination vers l’Espace de l’énergie thermique sous forme de rayonnement infra-rouge, jouent le rôle de « corps noirs » qui refroidissent la planète. Cette première illustration de la NASA est donc proche de la réalité.

Quand la NASA a publié sa deuxième interprétation des flux thermiques décrivant le « budget thermique » de la Terre en 2009 avec cette fois l’ « effet de serre » :

Capture d’écran 2015-09-10 à 08.13.18

on n’a pu que se poser quelques questions presque existentielles sur l’intégrité scientifique de cet organisme. On est à première vue attiré par les deux énormes flux d’énergie qui ne figuraient pas dans la première version. On est aussi étonné que la NASA ait tenté délibérément de brouiller les esprits en intervertissant pourcentages et valeurs des flux en W/m2, une sorte de tour de passe-passe injustifié mais grossier. Les chiffres en surimpression en rouge permettent de s’y retrouver : des watts/m2 dans le premier schéma et des pourcentages dans le deuxième. On a l’impression qu’il y a là comme une tentative d’arnaque scientifique. Tout semble à peu près similaire à une exception près et de taille. Les 15 % d’énergie absorbés par l’atmosphère dans la figure 1 (flèche orange horizontale) ont été remplacés par les énormes vecteurs rouges justifiant l’ « effet de serre ». La différence est loin d’être négligeable car il est très important pour justifier cet « effet de serre » putatif de considérer que seule l’atmosphère intervient dans la dissipation de l’énergie reçue du Soleil vers l’Espace et que la surface de la Terre ne joue qu’un rôle mineur comme l’indiquent ces deux gros flux d’énergie figurés par les flèches rouges.

Les modifications qui n’apparaissent que si on analyse ces schémas scrupuleusement sont les suivantes : les radiations thermiques (infra-rouges) de l’atmosphère et des nuages passent de 64 % dans le premier schéma à 58,8 % dans le second en se référant dans le bilan thermique à 50 % pour l’atmosphère et 8,8 % pour les nuages. Et en quelque sorte pour retrouver un semblant d’équilibre – le trucage est éminemment subtil car il n’apparait pas à première vue – les radiations infra-rouges en provenance de la surface de la Terre passent de 6 à 11,8 % : bel exemple de probité scientifique mais passons … Si on scrute plus en détail ces deux schémas, la ligne de base pour la question du CO2 reste inchangée : la couche fine de l’atmosphère terrestre reste capable sans aucun doute de transporter par rayonnement infra-rouge toute l’énergie reçue du Soleil. J’ajouterai à quelques points de pourcentage près car la Terre emmagasine tout de même de l’énergie solaire par capture de cette dernière au cours des mécanismes photosynthétiques des végétaux et du phytoplancton. Tant dans le schéma 1 que dans le schéma 2 CO2 et eau restent les « corps noirs » prépondérants contribuant à dissiper l’énergie solaire incidente vers l’Espace beaucoup plus efficacement que les autres gaz constituants de l’atmosphère. Il est nécessaire d’insister sur l’invraisemblable importance de ces flux d’effet de serre (back radiation) et de réémission depuis la surface de la Terre, 340 et 298 W/m2, des données naturellement non vérifiées et non vérifiables, à la vitesse de la lumière : 117,1 % dans un sens et 100 % dans l’autre sens : c’est un peu n’importe quoi !

Il est évident que ces affirmations mensongères de la NASA doivent être revisitées dans une approche pragmatique réalisée par des physico-chimistes sans aucun a priori politique ou idéologique et il est nécessaire de disposer de mesures précises sur toute la hauteur de la colonne atmosphérique stabilisée par le gradient adiabatique gravitationnel. Le fait que la Terre se comporte comme un corps noir à la température de – 18 °C n’est valide que pour les composants de l’atmosphère qui sont activés par le rayonnement infra-rouge et non pas par le rayonnement provenant de la surface de la Terre.

Oliver Geden, dans son commentaire adressé au Journal Nature a rendu publique la question de l’intégrité de la science climatique actuelle en citant les interférences nuisibles des « conseillers en climat » et le mélange des genres regrettable avec leurs orientations politiques et financières. Ce commentaire est donc opportun pour dénoncer la tournure qu’a pris la science climatique dans les moyens abordés pour justifier la validité de la question de l’effet de serre du CO2.

Le monde politique, finalement, est maintenant confronté à de réels problèmes comme la disponibilité des terres arables (j’en dirais un mot dans un prochain billet) pour nourrir la population, la disponibilité et l’utilisation des moyens financiers considérables détournés pour satisfaire la fausse science climatique au détriment du développement et de la santé de milliards de personnes mais pour le plus grand profit d’une poignée d’investisseurs internationaux anonymes ayant élu domicile dans des paradis fiscaux. Ces mêmes politiciens et les climatologues de l’IPCC qui sont payés pour les conseiller et les orienter dans leurs décisions doivent aussi prendre conscience du « hiatus » du non-réchauffement de ces quelques 19 dernières années malgré l’augmentation continue de la teneur en CO2 de l’atmosphère, observation qui à elle seule ruine toutes ces hypothèses fantaisistes d’effet de serre du CO2.

Illustrations : NASA et Nature. Sources : Dr Gerhard Stehlik, Hanau, Dr Vollrath Hoop, Dreieich, Allemagne, NASA et http://www.nature.com/news/policy-climate-advisers-must-maintain-integrity-1.17468