Le transport aérien mauvais pour le climat ?

Le site « atmosfair » a mis en ligne un moyen didactique pour que chaque personne décidant de se déplacer en avion soit culpabilisée. J’ai donc entré les codes des aéroports de mon prochain vol long courrier (on peut aussi entrer les noms des villes de départ et d’arrivée) et voilà ce que le site m’a craché à la figure :

Capture d’écran 2019-07-19 à 09.26.41.png

Je n’ai pas perdu mon sang-froid et j’ai fait quelques calculs sachant que ce vol est effectué avec un Airbus A330. Cet avion embarque 140 tonnes de kérosène et au moins 300 passagers. La durée du vol Madrid-Tokyo est d’environ 13 heures, soit aller-retour une distance d’environ 24000 kilomètres. Avec ces données je suis arrivé à 1,4 tonne de carbone par passager.

Le calcul est très simple, il suffit de diviser la quantité de kérosène embarqué par le nombre de passagers et d’exprimer le résultat en kilos de CO2 ! En gros 140 tonnes de kérosène génèrent 430 tonnes de ce gaz hautement toxique pour le climat mais pas vraiment pour les plantes (objet d’un prochain billet).

Je me suis amusé à comparer cette donnée avec un voyage de 24000 kilomètres effectué en voiture, une voiture consommant 5 litres pour parcourir 100 kilomètres et je suis arrivé à quelques kilos près au le même résultat. Alors la question est de savoir quel est le moyen de transport le moins mauvais pour le climat :

Capture d’écran 2019-08-22 à 16.51.58.png

Vue du San Diego freeway à Los Angeles

Mon prochain voyage au Japon sera-t-il d’aller d’Espagne à Vladivostok en trans-sibérien ? J’aimerais bien savoir quelle quantité de diesel les locomotives du train brûlent pour un tel périple sans oublier d’inclure le voyage en bateau de cette ville jusqu’aux côtes nord de Honshu … N’importe quoi.

La forêt amazonienne et le climat : encore une « fake-news ».

1024px-Panorama_canaviais_interior_Sao_Paulo_2006_06.jpg

Chaque minute l’équivalent de la surface de 3 terrains de football de forêt amazonienne disparait pour laisser place à des cultures agricoles à haut rendement comme le palmier à huile, la canne à sucre, le sorgho ou encore, à l’extrême limite, l’élevage. Le nouveau dirigeant du Brésil a compris que la forêt amazonienne était un atout immense pour le développement de l’économie du pays, mais à quel prix ?

Il est évident que l’attitude des dirigeant brésiliens ayant donné leur feu vert pour une déforestation intensive émeut la communauté mondiale bien-pensante. Celle-ci met en avant les arguments classiques : mépris de la biodiversité, destruction du « poumon » de la planète, véritable génocide des populations amérindiennes natives, conséquences inimaginables sur le climat global, augmentation catastrophique du CO2 atmosphérique, disparition de centaines de milliers d’espèces vivantes encore inconnues, etc, etc …

Mais qu’en est-il au juste ? Il est nécessaire de garder l’esprit froid et si possible clair pour analyser cette situation devant laquelle Bolsonaro a mis le monde entier. Je pense que mes lecteurs vont croire que j’ai l’esprit dérangé en lisant les lignes qui suivent mais j’insiste même si je vais heurter les âmes sensibles. Le bilan carbone de la forêt amazonienne est nul. En effet la biomasse totale de ce système, considérons ici les végétaux, est constante, il n’y a donc pas de fixation nette de carbone. Si tel n’était pas le cas il y aurait dans toute l’Amazonie des centaines de mètres de végétaux accumulés à la surface de cette partie de la Terre qui finiraient pas se transformer en une sorte de tourbe ou à l’extrême limite en lignite. Un enfant de 7 ans pourrait comprendre cela. Toute cette biomasse végétale disparaît donc au fur et à mesure qu’elle se forme. Où va-t-elle ? Elle se transforme lentement mais sûrement en CO2 et en méthane.

Alors, deuxième point, il est soigneusement fait abstraction de la production massive de méthane provenant des fermentations de toute cette matière organique sur le sol amazonien. Et si on est un adepte convaincu de la théorie de l’effet de serre intense du méthane alors en toute logique raser trois terrains de football de forêt chaque minute pour créer des cultures vivrières à haut rendement devrait être considéré comme bénéfique pour le climat. Un terrain de football mesure 7500 m2 arrondissons donc à un hectare cette unité de mesure pour simplifier le raisonnement. Combien de tonnes de bois un hectare de forêt tropicale humide peut-il produire chaque année ? La réponse est simple : très peu, peut-être une tonne, deux tonnes au mieux – chaque année – si on gère cet hectare de forêt de telle façon que la production annuelle soit constante dans la durée et que le bois extrait soit renouvelé également chaque année. Encore faudra-t-il que le bois soit exploitable, c’est-à-dire qu’il ait une valeur commerciale.

Par contre si on plante des palmiers à huile, en quelques années ces arbres vont produire, avec un minimum d’intrants, 5 à 6 tonnes d’huile par hectare tous les ans. On ne peut qu’en déduire que le bilan carbone est alors très positif, peu importe quel sera ensuite l’usage de cette huile et où elle sera utilisée. Pour la canne à sucre – le Brésil est le premier producteur de sucre de canne du monde – la fixation de carbone est encore plus incroyable (la canne est une plante « C4 ») puisque chaque hectare produit environ 60 tonnes de canne. Cette quantité de canne, toujours par hectare, produit 8 tonnes de sucre ou par fermentation 4,2 tonnes d’éthanol. On retrouve donc à peu près le rendement du palmier à huile si ces deux cultures sont destinées à produire du carburant dit « vert » et par définition renouvelable chaque année. Seules certaines céréales comme le blé, dans des conditions de culture optimales, par exemple dans la plaine de Beauce en France, atteignent des rendements comparables à ceux de la canne à sucre en termes de fixation de carbone. La production de blé dans ces régions très favorables est de l’ordre de 9 tonnes par hectare.

Donc, procéder à une déforestation d’au moins une partie de l’Amazonie ne changera rien au bilan carbone de la Terre, ne modifiera en rien la teneur en oxygène de l’atmosphère et les conséquences sur le climat global de la Terre seront négligeables voire inexistantes sinon bénéfiques. Ce dont on est en droit de se soucier est le désastre des écosystèmes uniques que forme la forêt amazonienne. Il est donc justifié de se préoccuper de cet aspect de la déforestation de la forêt amazonienne mais certainement pas de ses conséquences sur le climat.

Le combat des protecteurs du climat de « Gaïa » contre la politique agricole du Président Bolsonaro est donc sans signification et n’a pas lieu d’être, ceci d’autant plus que de nombreuses régions de cette forêt sont impropres à la culture car elles sont inondables ou souvent inaccessibles en raison de la présence d’eau, elles ne seront jamais affectée par ce programme d’extension de l’agriculture brésilienne … encore une « fake-news » !

Illustration : champ de canne au Brésil.

Réchauffement climatique d’origine humaine : une pure fiction selon deux équipes de géophysiciens !

À 48 heures d’intervalle, deux équipes de géophysiciens, l’une finlandaise et l’autre japonaise, passent à la contre-attaque et dénoncent les mensonges répétés de l’IPCC. La question qu’il est opportun de se poser avant d’entrer dans les détails de ces publications est la suivante : l’IPCC a-t-il été mandaté pour ne considérer que l’effet du gaz carbonique sur la sensibilité du climat à l’exclusion de tout autre paramètre ? Si la réponse est oui, alors qui est le mandataire (ou les mandataires) et pour quelles raisons ? Si la réponse est non, alors je n’aimerais pas me trouver, en tant qu’ancien scientifique, dans la peau d’un quelconque des membres de ce groupement de fonctionnaires internationaux qui accumule les mensonges « par omission » depuis sa création, attitude qui l’oblige à inventer encore plus de mensonges.

En effet les variations du climat terrestre ne dépendent pas que des variations de la teneur en gaz carbonique dans l’atmosphère, ce que ces deux équipes de géophysiciens démontrent clairement. L’IPCC a « oublié » (ou omis) de mentionner les variations de l’activité solaire. L’IPCC au aussi – et surtout – oublié la présence de vapeur d’eau et de nuages dans l’atmosphère. Personne ne peut nier qu’il y a des nuages dans le ciel, à moins d’aller chercher un bédouin au milieu du désert d’Arabie ou au milieu du Sahara qui témoignera que : « oui il n’y a jamais de nuages ici », alors ces quelques personnes confirmeront le fait que l’IPCC n’a jamais pris en compte ce paramètre central dans l’évolution du climat. Ces prétendus scientifiques de haut niveau qui osent donner des conseils aux gouvernements de tous les pays du monde, tous les membres des Nations-Unies, ont avoué, la bouche en coeur, que modéliser la formation et les mouvements des nuages, c’était trop compliqué, alors ils ne l’ont pas envisagé ! On croit rêver …

Entrons d’abord dans le vif du contenu du travail publié par des géophysiciens de l’Université de Kobe (doi : 10.1038/s41598-019-45466-8). Ces universitaires ont reconstruit les changements climatiques concernant le régime des moussons durant les périodes de la fin du Pléistocène et de l’Holocène en s’intéressant aux plateaux du nord de la Chine recouverts de loess, ces poussières apportées par les vents depuis les déserts, et où allaient ces poussières portées par les vents lors des moussons. Il se sont rendu compte que, dans le passé, quand le champ magnétique terrestre faiblissait puis s’inversait, le régime des moussons d’hiver, comme des moussons d’été, était profondément affecté. Durant le changement de direction du dipôle magnétique de la Terre, changement qui survient tous les 400000 ans environ, les variations concomitantes des régimes de mousson qui en résultaient étaient dues aux variations de la couverture nuageuse – sans nuages, pas de mousson – et que cette variation était directement liée à l’intensité du rayonnement cosmique atteignant les plus basses couches de l’atmosphère. Les travaux de cette équipe ont été focalisés sur les variations du régime des moussons telles qu’elles ont pu être évaluées par des carottages des sédiments dans les baies d’Osaka et de Tokyo. La conclusion de ces travaux est sans appel : lors du changement de polarité du champ magnétique terrestre l’intensité du champ magnétique diminue dramatiquement pour atteindre une valeur d’environ 25 % seulement de celle normalement relevée au cours d’un cycle normal de ce champ magnétique terrestre. Il en résulte une formation beaucoup plus fournie de nuages provoquée par le conflit normalement existant entre l’air froid sibérien entrant dans la région de l’archipel nippon qui se confronte avec l’air chaud et humide océanique provenant du sud de l’archipel. Cette situation a pour effet de favoriser un effet d’ombrelle nuageuse plus important que la normale en raison de l’intensité du bombardement cosmique, le champ magnétique terrestre n’étant plus assez efficace pour atténuer l’effet de ce bombardement cosmique sur la formation de nuages.

Capture d’écran 2019-07-14 à 19.22.49.png

On peut constater qu’il s’agit d’une vérification indirecte des hypothèses formulées par Svensmark sur l’influence combinée des champs magnétiques solaire et terrestre sur la protection de la Terre vis-à-vis des rayons cosmiques et de leur effet sur le climat. L’IPCC n’a jamais mentionné ce type de paramètre dans leurs nombreux modèles d’évolution de la température moyenne de la Terre, et pour cause, c’est tout aussi compliqué à modéliser que les nuages … Cette « ombrelle nuageuse » comme les géophysiciens japonais l’ont appelée a eu pour résultat une série d’épisodes de refroidissement du climat sur la période 1 million d’années – 200000 ans avant l’ère commune qui a fait l’objet de ces études.

Quelle horreur ! Remonter des centaines de milliers d’années en arrière pour expliquer le climat terrestre actuel qui préoccupe le monde entier doit paraître une hérésie profonde car la science climatique infuse est exclusivement du domaine de l’IPCC puisque pour cet organisme il suffit de « modéliser » pour savoir quel temps il fera en 2100. Et il faut croire cet organisme de fonctionnaires internationaux richement rémunérés par les impôts des contribuables du monde entier, nous n’avons plus le choix, c’est ce que ne cessent de répéter inlassablement tous les gouvernements des pays développés, dont en particulier les ministres des « transitions énergétiques », naturellement tous encartés aux partis verts locaux qui ont voué leur carrière politique à la cause climatique, quelques que soient leurs agissements privés par ailleurs : ils sont les seuls à détenir le savoir, point barre.

Et pourtant ces travaux ont mis indirectement en évidence le fait que les nuages, indépendamment de la cause de leur abondance relative au cours du temps, sont le paramètre naturel majeur de la sensibilité du climat comme cela va être exposé ci-après.

Venons-en donc maintenant aux travaux de Kauppinen et Malmi, deux Docteurs en géophysique de l’Université de Turku en Finlande. Les choses se compliquent sérieusement pour l’IPCC obsédé depuis sa création par le CO2. Le titre de leur publication est évocateur sinon provocateur : « Pas d’évidence expérimentale en faveur d’un changement du climat d’origine humaine » (arXiv : 1907.00165v1 [physics.ao-ph] 29 juin 2019, via Cornell University). Il existe une très large incertitude dans la communauté scientifique en ce qui concerne la sensibilité du climat, c’est-à-dire la résultante des divers facteurs affectant le climat, sensibilité qui se mesure en degrés Celsius. Certains modèles affirment que cette sensibilité est proche de zéro alors que d’autres modèles prédisent des augmentations de température pouvant atteindre 9 degrés C en cas de doublement de la teneur atmosphérique en CO2. La plupart de ces modèles utilisent une théorie dite « modèle de circulation générale » pour leurs estimations. Les modèles considérés comme plausibles par l’IPCC prévoient des sensibilités entre 2 et 5°C mais il y en a d’autres qui n’arrivent pas à dégager une quelconque sensibilité :

Capture d’écran 2019-07-13 à 18.10.21.png

Pour se faire une opinion de ce qui se passe dans la réalité il est nécessaire pour analyser l’anomalie de température par rapport à une moyenne, ce qu’indiquent les modèles, de faire la distinction entre les facteurs naturels et les gaz à effet de serre. Le rapport AR5 de l’IPCC stipulait que les facteurs naturels ne pouvaient pas expliquer l’évolution récente des températures comme l’indiquait en résumé la figure ci-dessous où les observations sont matérialisées par un trait noir, le facteur anthropogénique avec ses incertitudes en rose et les « facteurs naturels en bleu :

Capture d’écran 2019-07-16 à 18.50.49.png

L’un des facteurs naturels influant sur la température moyenne est la couverture nuageuse qui est disponible à partir des observations satellitaires. En rassemblant sur un même graphique les données relatives aux températures moyennes observées, plutôt leur écart par rapport à une moyenne fixée à 15°C, et les variations de la couverture nuageuse exprimées par rapport à une superficie égale à 26 % de la surface terrestre, on peut constater de cette représentation que quand il y a beaucoup de nuages, les températures ont tendance à diminuer et inversement quand cette même couverture nuageuse diminue l’écart des températures par rapport à la moyenne augmente positivement. On ne peut qu’en déduire que les nuages bloquent l’énergie solaire qui atteint moins efficacement la surface du sol ou des océans et par conséquent la température qui y est mesurée diminue :

Capture d’écran 2019-07-13 à 17.20.10.png

Dans cette figure le zéro de l’ordonnée pour les températures est 15°C et le Δc est la fraction exprimée en pourcentage correspondant au changement de la couverture nuageuse par rapport à la moyenne globale de 26 % de couverture nuageuse basse sur l’ensemble de la surface de la Terre.

Or, les modèles utilisés – forcing naturel seulement ou forcing naturel + forcing anthropogénique – devraient en toute logique se superposer autour de la courbe noire des observations si le forcing naturel considéré dans ces modèles prenait correctement en compte la contribution des nuages bas (voir la figure précédente figurant dans le rapport AR5 de l’IPCC. Force est de constater qu’il n’en est rien.

Mais si on superpose l’anomalie des températures observées entre l’été 1983 et l’été 2008 avec les observations globales de la couverture nuageuse, on va remarquer, bien qu’il y ait un « bruit de fond » important, que si on multiplie les données de couverture nuageuse exprimées en pourcentage de la moyenne sur cette période, un nombre sans dimension physique, par « moins » 0,11°C / % (-0,11) on retrouve grosso modo la même courbe que celle décrivant l’anomalie des températures :

Capture d’écran 2019-07-13 à 17.21.19.png

Les valeurs « zéro » pour chacune de ces grandeurs ΔT (en degrés) et Δc ( en %) sont respectivement, il est important de le rappeler encore une fois, de 15°C et 26 % pour les deux graphiques. Ce facteur multiplicatif -0,11 introduit une valeur physique, des degrés centigrades, à la couverture nuageuse exprimée en pourcentage qui peut alors être corrélée à la sensibilité climatique elle-même exprimée en degrés C.

Nous allons découvrir que ce facteur multiplicatif de « moins 0,11 °C » n’est pas sorti comme par magie d’un chapeau. Force est de constater qu’il existe une remarquable concordance entre ces deux courbes. Qu’est-ce que cela signifie ? Les anomalies de température telles qu’indiquées en rouge dans la première figure tiennent compte des facteurs naturels et de l’effet des gaz à effet de serre sur la sensibilité climatique, alors que dans cette première figure la courbe bleue n’indiquait que le facteur naturel qu’est la couverture nuageuse. Il est opportun de rappeler ici que cette couverture nuageuse est mesurée 24/24 heures à l’aide de radars installés sur des satellites et que les températures sont appréciées par thermométrie infra-rouge également avec l’aide de satellites. Cette concordance signifie tout simplement qu’il n’y a pas lieu de considérer un quelconque effet des gaz dits à effet de serre puisque températures et couverture nuageuse sont directement liées !

Les contradicteurs pourront toujours arguer du fait que le laps de temps indiqué dans ce travail est trop court. Il a pourtant été tenu compte des données satellitaires homogènes disponibles. Toute disparité dans ces observations aurait nécessité des corrections pouvant prêter à contestation. D’autres remarques seraient du genre : mais puisque l’IPCC affirme que l’évolution des températures entre 1983 et 2008 est uniquement explicable par l’augmentation de la teneur en CO2 atmosphérique de 343 à 386 ppm, donc c’est vrai, point final. Effectivement, la température moyenne globale, une notion, certes, contestable sur le plan strictement physique, a augmenté durant cette période de 0,4 °C. Conformément à la théorie développée par ces mêmes auteurs ( arXiv:1812.11547v1, décembre 2018 via Cornell University) et le résultat illustré par les deux courbes ci-dessus directement déduit de cette théorie, si la concentration en CO2 augmente de Co à C et double ( C = 2Co) le ΔT obéit à la loi suivante :

Capture d’écran 2019-07-13 à 17.02.47.png

où ΔT2CO2 est le changement global de la température et Δc le changement de la couverture nuageuse. Le premier terme de l’équation décrit l’effet du CO2 sur la sensibilité du climat et le second terme l’effet naturel – les nuages – indépendamment du CO2. En replaçant ΔT2CO2 par la valeur de la sensibilité du climat au CO2 qui est de 0,24 °C alors selon le premier terme de l’équation ci-dessus la contribution du CO2 n’est que de 0,04 °C. C’est la raison pour laquelle cette minuscule augmentation est invisible dans le deuxième graphe ci-dessus. Ce même calcul peut être transposé en tenant compte non plus de la couverture nuageuse de basse altitude mais de l’humidité ou teneur en vapeur d’eau de l’atmosphère, une grandeur également mesurable à l’aide de satellites et les auteurs sont arrivés aux mêmes conclusions.

Ces résultats conduisent donc à la révélation surprenante qui est la surévaluation de la sensibilité climatique au CO2 d’un facteur 10 par l’IPCC car la rétro-action négative des nuages sur la température a tout simplement été ignorée. De plus la contribution de l’activité humaine à l’accroissement du CO2 atmosphérique total étant de l’ordre de 4 % alors on ne peut que conclure que le réchauffement climatique d’origine humaine n’existe tout simplement pas ! Durant les dernières 100 années la température globale moyenne a augmenté de 0,1 °C et la contribution humaine, c’est-à-dire l’augmentation du CO2 atmosphérique n’a été que de 0,01 °C dans la sensibilité du climat. La couverture nuageuse contrôle donc principalement la température.

Le fait que l’équipe japonaise ait mis en évidence un rôle majeur des rayons cosmiques dans la formation de la couverture nuageuse constitue une explication d’une grande importance pour la compréhension des changements du climat, passés mais aussi à venir. Oublions l’inversion des pôles magnétiques terrestres qui est un processus s’étendant sur des centaines de milliers d’années. Il faut rappeler que sur une échelle de temps de l’ordre de quelques dizaines d’années le facteur naturel ayant une influence prépondérante sur les variations de la couche nuageuse est l’activité magnétique solaire. La Terre évolue dans le champ magnétique solaire et le rôle protecteur de ce champ magnétique contre les rayons cosmiques dépend directement de son intensité (voir note en fin de billet). La faiblesse du cycle solaire (#24) finissant et les prévisions plutôt pessimistes pour le cycle solaire suivant (#25) ne sont pas encourageantes pour la « sensibilité climatique », en d’autres termes pour la température moyenne qui sera ressentie durant les années à venir.

Notes. Le facteur multiplicatif -0,11 n’est pas une vue de l’esprit mais le résultat d’une longue étude qui a été publiée en 2018 et mentionnée ci-dessus. Je suggère à ceux de mes lecteurs qui voudraient contester le contenu non pas de mon billet mais celui des travaux de J. Kauppinen et P. Malmi de lire les deux articles cités en référence ou encore de s’adresser directement à ces auteurs dont voici l’ e-mail : jyrkau@utu.fi

Note. Le champ magnétique solaire est beaucoup plus puissant et étendu que celui de la Terre. Ce champ dévie les rayons cosmiques, j’ai écrit de nombreux billets à ce sujet. Le champ magnétique terrestre dévie également certains rayons cosmiques mais son rôle majeur dans la protection de la vie sur la Terre est de piéger les particules émises par le Soleil qui constituent le vent solaire.

CO2 et essais nucléaires (suite)

En réponse à quelques commentaires sur ce blog voici des précisions.

Pour le delta C14 se reporter à la thèse de doctorat de Vag Hesshaimer :

http://archiv.ub.uni-heidelberg.de/volltextserver/1094/1/VagoDiss.pdf , équation (62) page 71. La répartition dans les divers compartiments : atmosphère, biosphère et océans est documentée en détail.

En ce qui concerne les valeurs absolues des teneurs en C-14 dans l’atmosphère il existe (aujourd’hui) deux sources de production de ce radioisotope : la spallation cosmique et les centrales nucléaires, en particulier les BWRs.

Voici les données disponibles dans la thèse de Hesshaimer et sur diverses pages de Wikipedia relatives à la présence de C-14.

Spallation cosmique : 2,8 x1026 atomes par an, 1/3 dans la troposphère, 2/3 dans la stratosphère.

Energie nucléaire civile (BWR) : 0,5 x 1026 atomes par an largement piégé sur site et stocké sous forme de carbonate, à peine 1 kg d’élément carbone radioactif par an : 12 x 0,5 x1026 / nombre d’Avogadro = 1000 g.

Total des essais nucléaires atmosphériques jusqu’à l’interdiction de ces derniers : 953 x 1026 atomes sur la base d’une puissance explosive évaluée à 545 millions de tonnes de TNT, ce qui donne une estimation de la production de neutrons par tous les essais. Cette estimation est basée sur le fait qu’une puissance explosive équivalant à 1 million de tonnes de TNT produit 1,75 x 1026 atomes de C-14 (références dans la thèse de Hesshaimer).

Enfin une autre question soulevé par le précédent billet est la part du CO2 atmosphérique provenant de l’utilisation des combustibles fossiles. En raison de l’absence totale de C-14 dans les combustibles fossiles (il y a bien longtemps que celui-ci a disparu) et en mettant à profit le fait que le rapport C-13/C-12 est différent de celui du CO2 provenant du cycle naturel du carbone de nombreuses équipes de physiciens sont arrivées à la même conclusion : le CO2 provenant des combustibles fossiles, dit « anthropogénique », représente moins de 5 % du total. L’accroissement « moderne » de cette teneur en CO2 a été essentiellement provoquée par un dégazage des océans favorisée par l’optimum climatique moderne qui a débuté à la fin des années 1920.

Note. Si les hypothèses de l’IPCC étaient exactes le CO2 radioactif issu de la spallation cosmique devrait aussi s’accumuler en considérant un temps de résidence d’un siècle (rapport AR5) et le retour à la normale de la teneur en C-14 après l’arrêt des essais nucléaires atmosphériques n’aurait pas du avoir lieu. Or, à l’évidence, ce n’est pas le cas ! En conséquence, et ce seul fait le montre, l’IPCC a menti (et continue) au monde entier en avançant des arguments qui sont contredits par les observations. Demandez à un créationniste de soutenir la thèse maintenant  incontestablement démontrée de l’origine de l’homme, l’IPCC se trouve dans la même situation : cet organisme a érigé le rôle du CO2 dans l’évolution du climat au niveau d’un dogme, à l’exclusion de tout autre facteur, et auquel il faut croire sous peine d’être persécuté …

CO2 ? L’IPCC a menti depuis le début au monde entier !

Dans l’article controversé du Docteur Hermann Harde paru en février 2017 dans la revue Global and Planetary Change (voir le DOI), il est écrit en introduction, je cite :

« Dans le 5e Assessment Report (AR5, 2013) de l’IPCC on peut lire (AR5-Chap. 12-FAQ 12.3, p. 1107) : la température globale ne devrait pas répondre rapidement aux changements de concentration des gaz à effet de serre (…) Éliminer les émissions de CO2 conduirait seulement à une stabilisation des températures pendant de nombreux siècles (en raison des émissions passées). En conséquence de la large inertie du climat et du cycle du carbone, la température globale sur le long terme est largement contrôlée par les émissions totales de CO2 qui se sont accumulées au cours des années passées, quel que soit la date de ces émissions. »

Il est donc clair que l’IPCC considère que la Terre accumule de la chaleur mais aussi que l’atmosphère est un réservoir important de CO2 qui accumulera pendant des siècles ce dernier, ceci expliquant la réponse très lente de la température à tout changement de concentration de CO2.

Comme les lecteurs le savent bien je ne suis pas un spécialiste du climat mais j’ai tout de même voulu, comme on dit, en avoir le coeur net, car cette histoire de siècles de persistance du CO2 m’a un peu surpris.

Le Docteur Harde, après avoir étudié scrupuleusement le devenir du CO2 dans l’atmosphère et les océans avait conclu que le temps de résidence (on dit « demi-vie ») de toute nouvelle molécule de CO2 émise dans l’atmosphère par l’activité humaine ou naturellement par la biomasse en général était, au mieux, de 4 ans et que la contribution au pool de CO2 total atmosphère-océans par l’activité humaine utilisant des combustibles fossiles ne représentait que 4,3 % de ce pool. D’où la controverse féroce qui suivit la publication de son travail. Les tenants inconditionnels des thèses de l’IPCC se sont élevés contre les conclusions du Docteur Harde. Comme n’importe quel scientifique devrait le faire, je suis allé chercher dans Wikipedia s’il n’y avait pas des faits contredisant les propos du Docteur Harde. Et je me suis souvenu de la « Bombe atomique » …

Quand j’étais jeune adolescent, tous les aléas météorologiques comme par exemple un épisode de sirocco qui remonta jusqu’à la région lyonnaise, je crois me souvenir en 1961 (je n’ai pas pris la peine de vérifier) suivi de l’effroyable hiver 1962 étaient provoqués par la bombe. On disait : « c’est à cause de la bombe ! ». Depuis la fin de la seconde guerre mondiale, après les bombardements d’Hiroshima et Nagasaki les puissances nucléarisées ont procédé jusqu’en 1963 à 575 essais atomiques dans l’atmosphère. Entre 1958 et 1962 ce fut un véritable feu d’artifice infernal puisque les Américains, les Soviétiques, les Anglais et les Français négociaient un traité interdisant les essais atmosphériques.

Chacun de ces essais nucléaires a généré du carbone-14 retrouvé dans l’atmosphère sous forme de CO2. Il en résulta une incroyable augmentation de la teneur en carbone-14 dans l’atmosphère coïncidant avec la signature de ce traité. La formation de carbone radioactif par les essais nucléaires est sensiblement identique à celle produite naturellement par les rayons cosmiques. En effet quand une molécule d’azote (N2) entre en collision avec un neutron cosmique de haute énergie, le noyau d’un des atomes d’azote de cette molécule incorpore ce neutron, éjecte un noyau d’hydrogène (rayon beta relativiste) et se désolidarise de la molécule N2 sous forme d’un radical C . qui est immédiatement oxydé en CO2 par l’oxygène. Comme je n’avais rien compris à l’article du Docteur Harde, parsemé d’équations mathématiques compliquées – mes notions de math se sont évanouies avec les années – alors j’ai entrepris une petite recherche sur internet.

Je me suis souvenu d’une conférence enregistrée au Musée de l’Homme sur les techniques de datation utilisées en paléontologie. Il en existe beaucoup mais, dans mon idée, j’ai retrouvé cette fameuse courbe montrant l’augmentation incroyable de l’abondance de carbone-14 dans l’atmosphère au cours de la période 1955-1963 due aux essais atmosphériques des joujoux militaires tant des Américains que des Soviétiques. Cette course folle provoqua une réaction de sagesse de la part des protagonistes qui s’accordèrent finalement à interdire les essais nucléaires atmosphériques en 1963. Les pays nucléarisés de l’époque se réservèrent tout de même, dans cette course folle vers l’apocalypse, le droit de procéder à des essais souterrains (sans commentaire).

Sur le site de l’Université d’Heidelberg j’ai fini par retrouver la courbe décrivant la présence du CO2 radioactif dans l’atmosphère. Sa version originale figure dans la thèse de doctorat de Vago Hesshaimer soutenue en 1997 par devant l’Université d’Heidelberg :

Capture d’écran 2019-07-06 à 17.24.30.png

Que dit cette courbe, outre le fait qu’il existe quelques différences entre le CO2 radioactif présent dans l’atmosphère en moyenne et dans la stratosphère ? Laissons de côté le fait que du CO2 radioactif est produit en permanence par les rayons cosmiques et que les paléontologues doivent se conformer à des calibrations complexes pour dater leurs morceaux d’ossements et de charbon de bois (lire ci-après). Ne considérons comme le fit Hesshaimer que cette anomalie « militairement isotopique » qui atteignit entre les années 1955 et 1963 – juste avant la mise en place du traité d’interdiction des essais atmosphérique les militaires avaient vraiment mis le « paquet » car ils étaient très pressés – cinq fois la teneur naturelle de carbone-14, en quelque sorte une expérience classique chez les biologistes qui cherchent à savoir ce que devient un métabolite en le « marquant » avec du carbone-14 mais cette fois c’était en « vraie grandeur », à l’échelle planétaire.

Je passe sur tous les autres isotopes radioactifs que les personnes de ma génération ont ramassé à pleine bouche et pleins poumons durant ces années de folie, du genre strontium, césium, bismuth, krypton, baryum, iode et même étain radioactifs ! Aujourd’hui c’est l’omerta, les militaires, c’est-à-dire les gouvernements des nations nucléarisées, ne veulent pas qu’on en parle, ça fait désordre. Mais paradoxalement il y a tout de même un avantage sur le plan scientifique à tirer de cette courbe. Je me suis amusé à l’agrandir sur l’écran de mon iMac (je ne fais aucune publicité) et j’ai pris un double décimètre pour calculer la demi-vie du CO2 (qu’il soit radioactif ou non, peu importe) dans l’atmosphère. La demi-vie de résidence est le temps qu’il faut pour que la moitié de ce CO2 disparaisse, à ne pas confondre avec la demi-vie ou période d’un élément radioactif. D’ailleurs comme la « demi-vie » du Carbone-14 est de 5730 ans il est totalement hors de propos de la considérer ici.

Faites comme moi avec un double-décimètre et vous trouverez à peu près 4 ans ! Ceci veut dire qu’en 8 ans il reste au mieux 10 % du CO2 émis par l’activité humaine en brûlant des combustibles fossiles ou par les processus naturels de respiration de la biomasse. Cette simple observation étant prise en considération il est alors vraiment difficile d’être en accord avec les hypothèses de l’IPCC. Je ne peux pas imaginer un seul instant que ces « scientifiques » de l’IPCC aient eu une totale méconnaissance de ces données évidentes relatives au CO2 radioactif dans l’atmosphère dues aux essais nucléaires ! Elles figurent dans l’article de Wikipedia sur ces essais nucléaires ! N’importe qui peut les consulter. Les paléontologues, se penchant sur ce phénomène provoqué par la paranoïa des militaires, ont constaté que, compte tenu du fait que le principal réservoir de CO2 était constitué par les océans, 60 à 70 fois plus que l’atmosphère, ils ont alors corrigé leurs datations concernant les populations se nourrissant surtout de poissons et d’autres produits de la mer car sans correction ils les auraient daté systématiquement comme étant « plus jeunes ». En effet, les poissons contiennent en moyenne 60 fois plus de C-14 que par exemple de la viande terrestre !

Ce billet est l’illustration d’un assemblage de diverses informations provenant de disciplines totalement différentes. Ma curiosité est toujours exacerbée quand je détecte quelque chose d’anormal alors que, je le répète, je ne suis ni un spécialiste du climat, ni un spécialiste des datations au C-14, mais seulement un modeste ex-biologiste ayant utilisé du C-14 pour étudier des voies métaboliques. Voilà, je le crois modestement, une démonstration évidente de la forfaiture de l’IPCC et je pense que le Professeur François Gervais ne me contredira pas.

Carbon14_with_activity_labels.svg.png

Je termine ce propos en soulignant que la production naturelle de carbone-14 dans l’atmosphère par les rayons cosmiques n’est pas tout à fait constante. Les paléontologues ont été contraints pour affiner leurs datations d’effectuer des corrections parfois complexes à l’aide d’autres techniques de datation. Après avoir traité l’anomalie provoquée par les essais nucléaires le dosage du carbone-14 présent dans les arbres et précisément dans chaque cerne de croissance de ces arbres (dendrochronologie) les physiciens ont pu construire une courbe montrant les variations de la teneur en carbone-14 au cours du millénaire passé. Ce qu’ils ont découvert constitue une preuve supplémentaire de la modulation du bombardement cosmique atteignant la Terre par l’activité solaire : plus l’activité magnétique du soleil est élevée moins il y a de carbone-14 généré par ces rayons cosmiques dans l’atmosphère. En inversant l’échelle verticale on obtient une belle représentation des variations de l’activité solaire au cours des siècles passés. Ces variations de l’activité solaire ont ainsi obligé les paléontologues à effectuer des corrections pour réaliser leurs datations avec le carbone-14 de manière fiable mais sans jamais pouvoir remonter au delà de 50000 ans en raison de la « demi-vie » de ce radioisotope.

Je remercie le Docteur Harde qui a eu la gentillesse de me communiquer l’article relatif à la demi-vie du CO2 dans l’atmosphère dont voici le doi :

http://dx.doi.org/10.1016/j.gloplacha.2017.02.009 , thèse de doctorat de Vago Hesshaimer, 1997, Université d’Heidelberg et J. Geophysical Research, vol.105-D9, p.11641-11658, May 16, 2000. Dernière figure : Wikipedia

Réchauffement global, CO2 et cycles solaires …

Ce billet est une traduction aussi fidèle que possible d’un article de Renee Parsons paru sur le site off-guardian. J’ai vérifié la plupart des faits exposés par cette personne et j’ai trouvé une coquille typographique dont il est fait mention dans une note en fin de billet. Renee Parsons est membre actif de l’ACLU, Union Américaine pour la défense des libertés civiles et membre de Friends of the Earth. Il m’a paru intéressant de faire figurer ce document très compréhensible dans ce blog car il illustre une sorte de retournement de tendance des associations de sauvetage de la planète, dont « Les Amis de la Terre » font partie, vis-à-vis de la politisation outrancière de l’IPCC. Entre crochets dans le texte figurent des ajouts explicatifs.

Capture d’écran 2019-06-24 à 11.21.09.png

Après l’apparition de la photosynthèse il y a un peu plus de 3,2 milliards d’années la planète Terre a toujours été soumise à des fluctuations du climat, [fluctuations dont la complexité déborde le cadre de ce billet], par conséquent il ne sera abordé ici que l’aspect historique de la contribution du CO2 au réchauffement planétaire ainsi que la relation entre les cycles solaires, en particulier les minima solaires, et le climat. Bien avant la création de l’IPCC par les Nations-Unies en 1988 l’augmentation générale des températures avait été corrélée avec celle de la teneur en CO2 de l’atmosphère, seul responsable en raison de son effet de serre considéré comme la seule force motrice de cette hausse des températures.

À cette époque on pensait que le réchauffement global allait être la crise existentielle de notre époque, que la science n’avait plus rien à apporter et que pour notre civilisation les jours étaient comptés. Mais dans l’intervalle les conséquences du réchauffement global demeuraient incertaines car, en effet, un grand nombre de prévisions sur ces conséquences prédites par l’IPCC ne se sont pas matérialisées comme prévu. Le quotidien The Economist a fait récemment le constat suivant :

« Au cours des 20 dernières années la température de l’air à la surface de la Terre est restée stable tandis que les émissions de gaz à effet de serre ont continué d’augmenter ».

Avant la création de l’IPCC l’observatoire Mauna Loa à Hawaii enregistrait des niveaux de CO2 inférieurs à 350 ppm avertissant très clairement que si cette teneur dépassait ce seuil la Terre serait en proie à de graves problèmes et qu’il n’y aurait pas de retour en arrière possible pour l’humanité. Ces cris d’alarme se poursuivent aujourd’hui alors que la concentration en CO2 dans l’atmosphère a atteint 414 ppm et dans le même temps les températures ont atteint leur maximum en 1998.

Dès sa création l’IPCC a limité ses objectifs consistant à :

« Comprendre les bases scientifiques du changement climatique induit par l’activité humaine, ses impacts potentiels et les options d’adaptation et d’atténuation [de ce changement climatique] « .

En d’autres termes, avant qu’aucune science n’ait été réalisée, l’IPCC partait du principe que l’activité humaine était le seul responsable et que les phénomènes naturels ne participaient pas activement à ce processus et ne relevaient pas de sa sphère d’intérêt. En tant que sujet interdisciplinaire d’une complexité extrême l’IPCC ne fait pas autorité dans toutes les disciplines scientifiques qui sont du domaine du changement du climat. Et pourtant la très grande majorité des scientifiques ne contestent pas que le fait que le Soleil avec sa production cyclique d’énergie est la seule véritable force qui régit le système énergétique et climatique de la Terre en tant qu’élément d’un système centré sur le Soleil, l’exclusion de ce dernier par l’IPCC ne peut être considéré que comme un acte délibéré contrecarrant un ensemble de lois fondamentales de la science, une attitude qui devrait faire l’objet d’une enquête approfondie réalisée par des scientifiques impartiaux.

Le Soleil est le corps céleste le plus massif du système planétaire dans lequel se trouve la Terre et il exerce une attraction gravitationnelle puissante sur « ses planètes ». Ses taches solaires sont en relation avec les températures de la Terre et ceci est connu et bien répertorié depuis que Galilée a commencé à observer ces taches en 1613. Pourtant, l’PCC, qui prétend défendre une « vision scientifique du changement climatique », voudrait nous faire croire que le Soleil est immatériel et sans conséquence aucune sur l’évolution du climat terrestre, tout simplement un point chaud négligeable dans le ciel (illustration).

Dans ce débat sur le réchauffement global le CO2 est considéré comme un polluant incolore et inodore qui ne mérite que peu d’attention, et pourtant c’est une composante essentielle de toute vie sur la Terre car la photosynthèse ne peut pas avoir lieu sans CO2. Ce gaz est un contributeur indispensable pour l’agriculture car les plantes absorbent du CO2 et relâchent de l’oxygène dans l’atmosphère, un autre gaz atmosphérique dont dépendent tous les êtres vivants, qu’ils soient quadrupèdes ou bipèdes. C’est ainsi que certains scientifiques considèrent que la Terre a souffert d’une « famine » de CO2 et applaudissent le reverdissement indéniable de la planète depuis au moins trois décennies.

Avec les deux films de l’ancien vice-président Al Gore, « Une vérité qui dérange » (2006) et « Une suite qui dérange » (2016) qui traitent du climat comme d’une science acquise et dramatisent le réchauffement du climat comme étant une question de morale, il n’y a plus de place pour une autre approche critique, sceptique et indépendante basée sur des preuves. Il s’agit maintenant de politique partisane adossée sur l’émotion et une opinion subjective.

Compte tenu de l’importance que prennent les conditions météorologiques dans notre vie quotidienne, il semblerait que les citoyens engagés et les paléoclimatologues en herbe tentent de comprendre l’histoire ancienne du climat et de l’atmosphère terrestres pour obtenir une perspective claire du climat actuel et du climat futur de la Terre. Le climat est un système non linéaire dépendant d’une multitude de variables suivant des rythmes mais aussi des fluctuations erratiques, ce qui rend les prévisions météorologiques impossibles. Le climat est également une moyenne des systèmes météorologiques sur une période déterminée alors que les évènements météorologiques locaux indiquent une tendance à court terme mais ne constituent en aucun cas des prévisions précises sur le changement climatique.

L’analyse des carottes glaciaires n’indique pas les causes du réchauffement global, elles permettent seulement de se faire une idée du rapport entre le CO2 atmosphérique et les températures. Il appartient aux scientifiques d’interpréter les résultats. Et c’est là que ce récit prend une tournure imprévue quand il s’agit d’étudier le climat passé. On peut dire alors que ce que les scientifiques ont découvert est une « vérité dérangeante » : ils savent depuis 20 ans que les carottes de glace de Vostok dans l’Antarctique réfutent le rôle du CO2 dans le réchauffement du climat et remettent en question sa contribution en tant que principal gaz à effet de serre dans l’atmosphère. En effet la glace est de la vapeur d’eau atmosphérique figée sous forme de glace et elle contient 3,6 % de CO2 * et tous les scientifiques spécialisés dans ce type d’étude le savent ( * voir l’importante note en fin de billet). Le Centre de Recherche Vostok est situé au centre de la calotte glaciaire antarctique et des physiciens russes et français y travaillent en collaboration étroite. Ils ont collecté des informations depuis les années 1990 pour mesurer la teneur historique en CO2 dans la glace. Les échantillons ont les premiers permis de montrer des évidences irréfutables de l’évolution du climat terrestre depuis 420000 ans, considérable laps de temps traversé par 4 périodes glaciaires et inter-glaciaires. Ces échantillons remettent complètement en cause le fait que le CO2 provoque un réchauffement : il n’est pas « le coupable » que l’on croyait. Comme on pouvait s’y attendre l’IPCC considère que ces résultats, pourtant irréfutables, fournissent des « valeurs aberrantes » …

La première révélation significative des études sur les carottes de glace est que le réchauffement global ne pouvait pas être uniquement attribué au CO2 car les augmentations de sa teneur dans l’atmosphère survenaient toujours systématiquement après les augmentations de température et qu’il existe un long délai de latence entre ces deux évolutions. Un raisonnement clair et logique voudrait que la cause, c’est-à-dire le CO2, précède l’effet, c’est-à-dire l’augmentation de la température, selon l’IPCC, or cette affirmation est en complète contradiction avec toutes les études des carottes glaciaires. Aujourd’hui, avec un CO2 à 414 ppm, les températures restent dans la variabilité normale. Pour enfoncer le clou dans le raisonnement illogique de l’IPCC toutes ces études montrent que l’augmentation du CO2 atmosphérique survient après les 800 ans suivant un réchauffement du climat [ce qui serait en accord avec l’augmentation de la teneur observée depuis le début de l’ère industrielle comme conséquence de l’optimum climatique médiéval]. Cette latence a cependant été évaluée à plutôt 8000 ans et en 2017 une dernière évaluation a porté ce délai à 14000 ans. On peut donc dire que dans un monde complexe régi par la mécanique quantique il serait admis que le CO2 et les températures sont corrélées lorsque ces deux grandeurs varient ensemble, tout en étant séparées par un décalage de plusieurs milliers d’années.

Ce qui paraît obscur et inexplicable pour l’opinion publique dans cette espèce de « remaniement » du réchauffement global par l’IPCC c’est que les archives géologiques ont identifié les changement climatiques comme obéissant à des cycles naturels de périodes glaciaires de 100000 ans interrompues par de brèves périodes interglaciaires de 15 à 20000 ans. Ces périodes interglaciaires sont de simples répits tempérés dans un monde globalement plus froid au cours des millénaires passés. Au sein de ces alternances d’épisodes glaciaires et interglaciaires il existe des sous-ensembles cycliques de réchauffements et de refroidissements de la planète exactement comme la période interglaciaire actuelle a débuté à la fin du Pléistocène il y a environ 12000 ans. Le climat n’est donc pas une constante. Voici des exemples de sous-ensembles climatiques récents :

moins 200 avant JC – 440 après JC : cycle de réchauffement romain,

440 après JC – 950 après JC : cycle froid des « âges sombres »,

950 après JC – 1300 après JC : cycle de réchauffement médiéval,

1300 après JC – 1850 après JC : petit âge glaciaire de la Renaissance,

enfin 1850 – présent : cycle de réchauffement moderne

De plus les relevés climatiques ont montré que les pics de CO2 du passé sont proches des valeurs actuelles sans la contribution des combustibles fossiles qui n’ont été massivement utilisés qu’après la moitié du XIXe siècle. Par exemple, la teneur actuelle en CO2 de 414 ppm se compose des 300 ppm tels qu’enregistrés au XIXe siècle alors toute accumulation de ce gaz au delà de ces 300 ppm devrait être considérée comme d’origine anthropogénique et donc classée comme « historique » ou d’un « niveau alarmant » et pourtant elle reste statistiquement non significative si on la compare aux niveaux historiques passés. En effet, au cours des 600 derniers millions d’années seules les époques géologiques dites du Carbonifère et de l’Holocène récent ont connu des teneurs en CO2 inférieures à 400 ppm.

Au début du Carbonifère la teneur en CO2 était de 1500 ppm avec une température moyenne de 20 °C puis au milieu du Carbonifère la température moyenne plongea vers 12 °C et la teneur en CO2 suivit cette plongée pour arriver à 350 ppm. En d’autres termes la contribution humaine à cette teneur en CO2 atmosphérique est bien inférieure à ce qui a été considéré comme significatif au cours du Carbonifère. Contrairement à l’objectif décidé par l’IPCC la NASA a tout de même reconnu que : « tout le climat terrestre, de la surface de la planète jusqu’à l’espace, est sous l’influence du Soleil » et que le climat ressenti à la surface de la Terre est « influencé par les petites variations du cycle solaire ».

Un cycle solaire a une durée d’environ 11 ans et il débute par une faible activité magnétique. Celle-ci augmente au cours du cycle avec simultanément une augmentation du rayonnement émis et elle décroit ensuite avec une activité réduite au niveau des taches solaires ce qui a alors un effet sur les températures de la planète. Le cycle solaire actuel finissant [#24] est désigné par les astrophysiciens comme un « Grand minimum » car le nombre de taches solaires répertoriées a été anormalement faible. Selon un scientifique de la NASA ce cycle est l’un des minima les plus profonds de l’ « ère spatiale » [qui débuta en 1957] et il prédit aussi un record de l’ère spatiale pour le froid. Il a cependant clarifié sa déclaration dans la mesure où elle s’applique uniquement à la thermosphère [cf. le billet du 2 mars 2019 sur ce blog].

Comble de propagande mensongère, en Octobre 2018 la NOAA avait prédit pour les USA « un hiver avec des températures plus clémentes ». On sait ce qu’il est advenu de ces prévisions : des précipitations anormalement élevées et des températures anormalement basses dans tout le pays.

En 2018, le Soleil, dans ce cycle finissant, a connu 221 jours sans aucune tache comme l’a relevé le site Spaceweather.com. Que l’on soit partisan ou non des thèses soutenues par l’IPCC le Grand minimum solaire est attendu pour 2020 et il durera jusqu’en 2026 tout en provoquant des situations climatiques anormales et contre-intuitives incluant des températures plus fraiches en raison d’une couverture nuageuse plus dense, des épisodes plus chauds dus à une brillance plus prononcée d’un Soleil exempt de taches solaires, des évènements radio-électriques potentiels, de fortes pluies suivies d’inondations et des épisodes de sécheresse, des printemps écourtés avec de graves conséquences sur l’agriculture et la production de nourriture, mais aussi des épisodes hivernaux plus cléments que d’habitude.

Il est clair qu’un changement climatique important est en train de se produire alors même que le rôle du CO2 et de l’activité humaines en tant que facteurs de causalité restent problématiques et également que l’élimination ou la réduction de la production de CO2 et de méthane d’origine humaine n’améliorera pas nécessairement l’état de la planète Terre. Il serait grand temps que les scientifiques se comportent en scientifiques sans agendas politiques ni interférences bureaucratiques car le Soleil continuera sa course dans la Galaxie et la Terre continuera à tourner autour de lui comme elle l’a fait depuis des millénaires.

En conclusion, il est permis de rêver qu’un jour, dans un futur proche ou lointain, les hommes seront capables d’extraire l’énergie du point zéro [ZPF, zero point force, lien] dont Nikola Tesla pressentit la possibilité au début du XXe siècle. Mais il s’agit d’un redoutable challenge comme l’est d’ailleurs l’énergie de fusion nucléaire. Pendant ce temps le climat de la Terre continuera à évoluer conformément aux cycles naturels. On peut rêver d’un monde disposant d’une source d’énergie inépuisable, un nouvel âge d’innovations à l’échelle de la planète, un monde sans industries rapaces, sans pollution, sans pénuries et … sans guerres. La Terre tournera sans nous (lien Youtube) …

Source : billet paru sur le site off-guardian le 21 Juin 2019 : https://off-guardian.org/2019/06/21/global-warming-carbon-dioxide-and-the-solar-minimum/

Autres liens : https://en.wikipedia.org/wiki/Zero-point_energy

https://www.youtube.com/watch?v=O7O8J5dnwYs

Note. La teneur en CO2 dans l’atmosphère reconstituée par l’étude des calottes glaciaires est réalisée par l’étude non pas de la glace elle-même mais des micro-bulles d’air emprisonnées dans celle-ci. Lorsque la vapeur d’eau atmosphérique se condense pour former des gouttelettes (nuages) ou de la glace (flocons) celle-ci dissout du CO2. Les océans contiennent par volume 52 fois plus de CO2 que l’atmosphère. Il y a donc dans le texte original de Renee Parsons une coquille typographique, il faut lire 3,6 (ou 3,6 parties par milliers en volume) ce qui est du même ordre de grandeur que la teneur en CO2 dans la neige des régions polaires.

Qui aggrave l’état de santé du climat ?

Capture d’écran 2019-06-10 à 18.15.47.png

En deux illustrations et un tableau, tout est dit. Par tête d’habitant les 8 pays rejetant le plus de CO2 sont tous producteurs d’hydrocarbures … on pouvait s’y attendre. Et les 15 premiers pays rejetant le plus de « carbone » totalisent 72 % de toutes les émissions de ce carbone tant décrié qui sert pourtant d’aliment irremplaçable pour la végétation et le phytoplancton. Comment sont calculées ces quantités, l’article en référence paru sur le site Global Carbon Atlas ne le dit pas.

Capture d’écran 2019-06-10 à 18.17.20.png

 

Capture d’écran 2019-06-10 à 18.29.15.png

Si on se réfère à la durée de vie dans l’atmosphère du CO2 provenant de la combustion du pétrole, du charbon et du gaz déterminée par la signature isotopique de ce « rejet » comme proche de 5 années, l’accumulation de ce gaz supposé présenter des propriétés d’effet de serre ne peut donc provenir que du dégazage des océans provoqué par la forte activité solaire qui débuta au milieu des années 1930 et se termina avec le dernier cycle solaire (#24) particulièrement déficitaire en énergie. Tout va donc redevenir normal au cours des 10 prochaines années et tant le pétrole que le charbon ont encore de beaux jours devant eux !

Relire aussi sur ce blog : https://jacqueshenry.wordpress.com/2019/02/21/nouvelles-du-soleil/