Être climato-réaliste est une vraie mission (épisode 4). Température et CO2 : zoom sur les derniers milliers d’années.

Les données satellitaires et celles relevées par les stations météo à terre en ce qui concerne l’évolution des températures de l’atmosphère terrestre et au sol font l’objet de tellement de manipulations, d’ajustements sans prétexte, de « lissages » et corrections variées dans la plupart des cas injustifiés, ou plutôt réalisés pour servir la cause de la propagande de l’IPCC, que pour un climato-réaliste comme votre serviteur et pour n’importe quel scientifique digne de cette qualification, il n’y a que les carottages glaciaires pour fournir des données fiables, brutes et non trafiquées par de soi-disant experts sans qualifications catapultés comme membres éminents de « panels », de groupes ou de comités. Un vrai scientifique comme je prétends l’avoir été durant ma carrière de chimiste des protéines imagine des expérimentations parfois complexes à mettre en oeuvre pour tenter de prouver une hypothèse de travail. Cette hypothèse peut s’avérer fausse si l’expérience ne peut pas la confirmer. Mais pour la confirmer une seule expérience avec un seul ensemble de résultats n’est pas suffisante. Celle-ci doit être répétée au moins trois fois pour être alors certain qu’il ne s’agit plus de hasard. Ce facteur hasard étant éliminé il faut, quand un scientifique publie ses travaux – le seul moyen dont il dispose pour prouver qu’il travaille et qu’il puisse obtenir des financements pour ses travaux futurs -, que ses expérimentations puissent être reproduites par n’importe quel autre spécialiste, dans n’importe quel autre pays. Pour atteindre ce but, requis pour tout scientifique, il faut donc décrire dans ses moindres détails le protocole expérimental utilisé.

Depuis une vingtaine d’années l’IPCC publie dans ses rapports des modèles d’évolution future du climat qui varient sans cesse. Ces fonctionnaires onusiens seraient-ils de moins en moins certains de la validité de leurs conjectures ? On peut dire ça !

Dans un précédent billet de ce blog je décrivais la réapparition de la courbe en crosse de hockey, cette fameuse « fake-news » de Michael Mann que je croyais comme beaucoup de climato-réalistes jetée à tout jamais dans les poubelles de la science. Je serais curieux de connaître le protocole de calcul utilisé par les 19 signataires de l’article paru dans la revue Nature pour obtenir une telle courbe de variation des températures au cours des 2000 dernières années et quelles sont les sources exactes des données utilisées. Je ne suis pas un « modélisateur » et chaque fois que j’ai été amené à étudier le fonctionnement d’un enzyme il fallait faire appel à des calculs algébriques simples pour interpréter les résultats expérimentaux et déterminer les constantes cinétiques de l’enzyme. Tout le travail était strictement basé sur les données expérimentales documentées dans le détail.

Capture d’écran 2019-09-25 à 20.24.15.png

Pour ce qui concerne l’évolution des températures terrestres des quelques milliers d’années passées, ce qui fait l’objet de ce billet, deux projets ont été menés à leur terme : le projet GISP2 (Greenland Ice Sheet Project) qui a permis de retirer un carottage sur une profondeur de 3053 mètres et les projets, européen EPICA et russe Vostok, dans l’Antarctique, jusqu’à 3300 mètres de profondeur utilisable pour des études détaillées bien que le forage Vostok ait atteint une profondeur de 3770 mètres. De nombreuses expérimentations ont été nécessaires pour être absolument certain que la datation des carottes retirées était en harmonie que l’on ait à se reporter aux sondages groenlandais ou antarctiques. Contrairement à ce qui se passe d’une manière générale pour les relevés de température au sol ou à l’aide de satellites, relevés confiés à des organismes tels que la NASA ou la NOAA, l’étude des carottes glaciaires a été confiée à des physiciens répartis dans une multitude de laboratoires et non pas à des climatologues de pacotille. Pour reconstruire l’évolution des températures, la teneur en divers gaz atmosphériques ainsi que l’activité solaire, l’approche a fait essentiellement appel à des études isotopiques, oxygènes -16 et -18, carbones -12 et -13, béryllium-10, etc …

Les résultats illustrés par la figure ci-dessus sont formels : il n’y a pas de corrélation entre le refroidissement général continu depuis la fin du Dryas récent (la « grande déglaciation ») et la teneur en CO2 atmosphérique. Ce serait plutôt l’inverse ! L’influence du CO2 sur l’évolution des températures à la surface de la Terre étant éliminée et l’activité humaine étant il y a encore 150 ans négligeable si on reprend les hypothèses de l’IPCC relatives à l’influence sur le climat des gaz émis par cette activité humaine mais aussi celle des aérosols, alors la question cruciale qui émerge naturellement est la cause de ces variations climatiques discrètes en comparaison des fluctuations considérables au cours du Dryas. Il ne reste plus que deux candidats pour expliquer ces variations du climat : l’activité solaire et les cycles océaniques qui peuvent s’étaler sur plusieurs milliers d’années.

Les géophysiciens commencent à se faire un idée de plus en plus précise de ce qui se passe à l’intérieur du Soleil mais la relation entre les variations de l’activité solaire et les variations du climat restent à préciser, si elles peuvent l’être un jour, car le système océans-atmosphère-Soleil est d’une complexité telle que de simples équations mathématiques sont inopérantes pour l’évaluer, on entre en effet dans le domaine des phénomènes chaotiques.

Mais revenons brièvement pour conclure ce billet à ce graphique décrivant la variation de la température à la surface du centre de l’immense glacier du Groenland. Les trois derniers optima climatiques retrouvés par les recherches archéologiques puis les chroniques historiques ont été parfaitement bien retrouvés. Certains esprits chagrins diront que le Groenland n’est pas le centre du monde et qu’il n’y a pas lieu de s’attarder sur ce GRIP2. Pourtant on ne peut que remarquer que ce supposé réchauffement catastrophique contemporain dont on nous martèle les tympans n’est qu’un petit soubresaut totalement négligeable en regard de l’optimum climatique médiéval. Il n’aura duré qu’à peine 50 ans, de la fin des années 1930 à la fin des années 1990 avec une amplitude inférieure à un demi-degré alors que celle de l’optimum médiéval était de plus de 1,5 degrés.

Prochain billet : zoom final sur l’évolution du climat.

Être climato-réaliste est une vraie mission (épisode 2) : les paléoclimats

Capture d’écran 2019-10-23 à 12.41.51.png

À la suite de l’engouement planétaire pour l’évolution du climat des scientifiques sérieux ont appliqué les techniques les plus modernes et sensibles d’analyse isotopique dans les roches pour tenter de reconstituer l’évolution du climat passé. Ces analyses isotopiques concernent pour le CO2 atmosphérique la variation du rapport existant entre les deux isotopes stables du carbone les carbone-12 et carbone-13. Selon la teneur des roches sédimentaires en ces deux isotopes, à l’exclusion des roches métamorphiques, granitiques et volcaniques, il est possible de reconstituer la teneur atmosphérique en CO2 avec une incertitude variable qui s’accroît au fur et à mesure qu’on remonte dans le temps. En utilisant le même type d’approche, cette fois en s’intéressant aux isotopes de l’oxygène, il est possible de se faire une idée de la température de l’atmosphère en ces temps reculés. En effet l’oxygène de la molécule d’eau peut être soit de l’oxygène-16, le plus abondant, soit de l’oxygène-18. L’écart de poids entre une molécule d’eau contenant un oxygène-16 et une molécule d’eau contenant un oxygène-18 est de 11 %. Il faut donc plus d’énergie thermique pour évaporer la molécule plus lourde, c’est-à-dire celle contenant de l’oxygène-18. Résultat des analyses de teneur en oxygènes 16 et 18 dans les roches sédimentaires : on peut reconstruire l’évolution des températures sur la Terre. Enfin le dosage très précis de divers isotopes radioactifs (ou non) apparus avec le rayonnement cosmiques permet de se faire une idée de l’activité solaire. Plus l’activité magnétique solaire est élevée plus le rayonnement cosmique est dévié de « la banlieue » de la Terre et ainsi la spallation cosmique, c’est-à-dire l’apparition de ces isotopes ayant capturé un neutron énergétique d’origine cosmique ou résultant d’un évènement collisionnel provoqué par une particule cosmique de haute énergie avec un atome d’oxygène ou d’azote, augmente quand l’activité solaire est faible et inversement diminue quand cette activité solaire est élevée.

C’est un exercice compliqué car toutes sortes d’évènements ont pu émailler l’histoire de la Terre au cours des quelques 600 millions d’années passées, comme par exemple des éruptions volcaniques massives telles que les traps du Deccan quand le sous-continent indien se trouvait encore au milieu de l’océan, la collision des plaques tectoniques, ou encore la chute de gros cailloux célestes comme celui qui anéantit les dinosaures. Néanmoins, ne reculant jamais dans leur curiosité les spécialistes de la paléoclimatologie, une discipline à part qui fait surtout appel à des connaissances très étendues en géologie et en physique, sont arrivé à cette illustration synthétique intéressante à plus d’un point :

D’abord l’évolution de la température moyenne globale sur la Terre n’a jamais dépassé 25 degrés. J’avoue ne pas avoir trop cherché une explication à cette première observation mais on peut supposer que quand cette température est atteinte la fuite d’énergie thermique sous forme de rayonnement infra-rouge vers l’espace s’accélère et qu’au delà de cette température cette fuite est tellement intense que la température moyenne de la Terre ne peut plus augmenter. Il existe cependant deux petits « pics » de température dépassant cette température limite, l’une vers 250 millions d’années et l’autre au début du Cénozoïque, vers 60 millions d’années. Le premier pic correspond à l’extinction massive dite du Permien-Trias. Elle coïncide avec des éruptions volcaniques massives qui eurent lieu dans ce qui est aujourd’hui la Sibérie ayant eu pour résultat les traps de Sibérie. L’autre petit pic correspond à la chute d’un météore riche en iridium qui anéantit, outre les dinosaures, près de 95 % de la faune et de la flore, c’était l’extinction Crétacé-Paléogène. Certains géologues considèrent qu’il n’y a pas eu un unique impact dans l’actuel Golfe du Mexique mais une série de météorites qui ont atteint la Terre pendant près de cinq millions d’années. Le « dépassement » de la limite de température de 25 degrés reste à expliquer. Il semblerait qu’une forte activité volcanique ait pu contribuer à ce réchauffement anormal. Enfin il faut aussi noter que dans cette représentation graphique il existe une incertitude dans la datation des roches, incertitude qui augmente au fur et à mesure que l’on remonte dans le temps. Cette incertitude était de l’ordre de 5 millions d’années (en plus ou en moins) lors de l’extinction Crétacé-Paléogène.

Pour l’évolution des teneurs en CO2 atmosphérique l’incertitude est très grande. Elle est figurée en grisé dans l’illustration.

La grande explosion de vie, surtout marine, du Cambrien a provoqué une chute de la teneur en CO2 atmosphérique. L’apparition de la plupart des phylums animaux et végétaux datent de cette période reculée. Elle a été le résultat de l’apparition initiale de la photosynthèse chez les cyanobactéries, un processus lent qui demanda des centaines de millions d’années, photosynthèse source de toute vie sur la Terre avec un enrichissement de la teneur en oxygène de l’atmosphère qui a son tour a favorisé la complexification animale tant marine que terrestre. Tout cela se passait il y à 540 millions d’années.

Stromatolites_in_Sharkbay.jpg

Les rares représentants actuels de cette explosion de vie sont les stromatolites qui sont une association de bactéries et de cyanobactéries (illustration, en Australie). À la fin du carbonifère la teneur en CO2 atmosphérique était sensiblement identique à celle d’aujourd’hui. En effet tout ce qui restait de CO2 avait été piégé sous forme de houille. L’augmentation de la teneur en CO2 au cours du Mésozoïque est attribuée en partie à l’activité volcanique mais les hypothèses avancées sont encore conflictuelles. Depuis 50 millions d’années la température moyenne sur la Terre n’a cessé de diminuer, entrainant une diminution de la teneur en CO2 par piégeage dans les océans par le phytoplancton aussi appelé ordre des dinoflagellés dont le squelette est la calcite qui forme les diatomées ou algues microscopiques (illustration). Il y a au nord de l’île de Fuerteventura dans l’archipel des Canaries des dunes de sable très fin et très léger d’une blancheur étonnante. Il ne s’agit pas de sable constitué d’oxydes de silicium mais de diatomées qui se sont accumulées là pendant des millions d’années poussées par les alizés et déposés sur le rivage.

Diatoms_through_the_microscope.jpg

Enfin ce qui paraît évident dans cette représentation est qu’il n’y a pas de corrélation entre température et CO2 : les évolutions semblent totalement indépendantes. Un enfant de première année d’école primaire pourrait l’affirmer et affirmer aussi que le climat terrestre a toujours évolué dans le passé. Pourquoi alors ce CO2, surtout celui généré par l’activité humaine, serait-il particulièrement mauvais pour le climat ? Comme ça, d’un coup de baguette magique ? On est vraiment en droit de se poser quelques questions !

Suite dans un prochain épisode. Illustrations Wikipedia reprises par de nombreux conférenciers.

Évolution populaire de la sémantique scientifique

langfr-1920px-Glyphosate.svg.png

Depuis quelques années n’importe qui, attentif aux écrits et discours de la presse influente dite « main-stream », a pu constater qu’il existe une dérive progressive et insidieuse dans les termes utilisés pour qualifier un produit. Je ne prendrai que trois exemples pour illustrer mon propos de ce jour, trois exemples sans lien mais trop significatifs pour ne pas les rappeler ici. Il s’agit du lait de vache, du CO2 et du glyphosate.

J’ai sévi à l’université dans la recherche en biologie durant un peu moins de 38 ans avec une interruption totalement fortuite pour m’intéresser à l’énergie nucléaire durant 3 années au sein d’EDF. C’est la raison pour laquelle quand j’écris un billet relatif à la biologie en général je sais de quoi je parle et il en est de même pour l’énergie nucléaire. Ma solide culture scientifique m’a également permis d’être capable (encore aujourd’hui) de comprendre ce qu’il en est quand je lis un article compliqué relatif, par exemple, au climat.

Prenons d’abord l’exemple du glyphosate car il s’agit d’une molécule que je connais très bien pour avoir travaillé sur un sujet connexe pendant plusieurs années. Le glyphosate, de par sa nature chimique, ne peut pas être cancérigène car il ne peut tout simplement pas interagir directement avec l’ADN pour des raisons électrostatiques : l’ADN est recouvert de charges négatives – c’est un acide comme son nom l’indique – et le glyphosate est également chargé négativement (trois charges négatives) et, comme chacun ne l’ignore pas, deux molécules chargées négativement se repoussent, point barre.

Ce produit, découvert et commercialisé par la firme Monsanto, a été classé « cancérigène probable » par l’organisme onusien IARC il y a quelques années sans que cette vague affirmation ait été étayée par des évidences scientifiques incontestables et la dérive journalistique a transformé ce produit en « cancérigène » non plus probable mais « certain ». Donc il faut en interdir l’utilisation sans aucune autre forme de débat. Les conséquences de cette interdiction sont le cadet des soucis des politiciens qui s’en tiennent aux déclarations véhémentes des associations de préservation de l’environnement toutes puissantes. Pourtant ces conséquences sont immenses en particulier dans le domaine agricole. Mais les politiciens, aveuglés par les argumentations sans fondement scientifique des écologistes, ont décidé qu’à très court terme ce produit serait interdit. Les agriculteurs seront alors contraints d’utiliser d’autres désherbants infiniment plus toxiques et surtout beaucoup plus coûteux. Qu’à cela ne tienne, la politique a ses raisons (surtout anti-scientifiques) que la raison ignore.

Prenons le cas du lait. Je veux parler ici du lait de vache entier stérilisé par le procédé UHT qui préserve les qualités organoleptiques et nutritionnelles du produit originel ainsi que sa teneur en vitamines, en particulier B1, B6 et B12. Mon médecin « référant » à défaut de dire « traitant » m’avait mis en garde il y a des années que boire un litre de lait entier chaque jour allait me précipiter dans la tombe. Certes, l’homme est le seul animal sur la planète Terre capable de boire du lait provenant d’une espèce différente de lui et quand il le peut, c’est-à-dire quand il dispose de l’enzyme clé capable de couper le lactose en deux sucres élémentaires, le glucose et le galactose, boire du lait de vache, de brebis, d’ânesse ou de chamelle, il ne s’en porte que mieux. Le lait était d’abord considéré comme mauvais pour le taux de cholestérol, puis carrément toxique. D’un liquide bénéfique il est devenu un poison : encore une dérive sémantique inexplicable. Au sein de la paranoïa anti-nucléaire omniprésente personne ne mentionne que le lait contient du potassium-40 et qu’il est radioactif, ce serait affoler les populations … pour rien, d’autant plus que le lait maternel est lui aussi radioactif ! Mais depuis quelques années – et ce processus de diabolisation du lait de vache s’accélère – l’élevage bovin est devenu de surcroit mauvais pour le climat. L’élevage, la viande, le lait et les fromages sont devenus des poisons non pas pour notre santé mais pour le climat. La dérive sémantique s’est accélérée !

Le cas du CO2 est encore le plus emblématique de la dérive sémantique dont il a fait l’objet ces dernières années au point d’alimenter aujourd’hui des mouvements sectaires et violents dans tous les pays de l’OCDE à l’exception de la Russie, de la Chine et de la majorité des pays en développement. Le CO2 est la source de nourriture fondamentale et irremplaçable de tous les végétaux et du plancton océanique, ce dernier étant la source majeure de l’oxygène atmosphérique. Sans CO2 il n’y aurait pas de vie sur la Terre et les océans seraient des déserts, tout simplement. Ce gaz est donc synonyme de vie. Depuis la fin des années 1970 des scientifiques à la petite semaine ont ressorti la théorie de l’effet de serre d’Arrhenius qui a pourtant été démentie à plusieurs reprises après sa publication en 1896. Cette théorie jamais vérifiée expérimentalement depuis cette date a permis l’échafaudage de la plus grande imposture scientifique de la fin du XXe siècle reprenant les propos d’Arrhenius qui prétendait qu’un doublement de la teneur atmosphérique en CO2 provoquerait un réchauffement planétaire généralisé de 5 °C. Toutes sortes d’effets secondaires du CO2 ont été imaginés et depuis lors le CO2 est passé d’un gaz essentiel à la vie à un gaz toxique pas seulement pour le climat mais aussi pour nous-mêmes, êtres humains. Nous sommes devenus coupables de produire du CO2 en brûlant des combustibles fossiles, coupables de détruire l’équilibre – paraît-il précaire – de la planète comme s’il n’existait aucune résilience de l’ensemble des systèmes biologiques existants. Voilà une autre dérive sémantique qui défie le bon sens.

Il y aurait tellement d’autres exemples à apporter pour abonder ce phénomène journalistique et malheureusement scientifique de dérive sémantique que j’en suis découragé d’avance. Mes lecteurs en trouveront bien d’autres par eux-mêmes.

Illustration : glyphosate, les trois groupements hydroxyle (OH) sont en fait ionisés en O- et un proton H+ ce qui explique que le glyphosate est fortement électro-négatif.

Réflexions disparates sur le changement du climat (suite).

Le seul facteur agissant sur le climat est le Soleil

Capture d’écran 2019-09-21 à 18.49.20.png

Considérant, selon les études de nombreuses équipes de géophysiciens et de spécialistes du Soleil, que l’activité magnétique du Soleil va faiblir de manière spectaculaire et durable dans les prochaines années, quelles vont être les conséquences du refroidissement pourtant attendu mais nié par les instance onusiennes ? Ce qui est tout à fait surprenant est que l’IPCC n’a jamais pris en compte dans ses modèles les variations de l’activité magnétique solaire ni les variations de l’irradiance de l’astre atteignant la Terre. Il est maintenant prouvé sans ambiguité qu’une chute de l’activité magnétique du Soleil conduit à une diminution de la protection de la Terre contre les rayons cosmiques car le champ magnétique du Soleil devient moins robuste. Par voie de conséquence la couverture nuageuse de haute altitude augmente et elle réfléchit un partie croissance de l’énergie solaire incidente. La conséquence est un refroidissement général du climat.

(illustration trouvée sur la conférence du Docteur Nir Shaviv présentée à la dernière conférence internationale sur le changement du climat, CN = condensation nucleus, CCN=cloud condensation nucleus)

Un avenir proche très sombre

Les conséquences du refroidissement du climat prédites avec précision par les géophysiciens et les spécialistes du Soleil seront tout simplement catastrophiques. En rassemblant un grand nombre d’études relatives au climat des siècles et millénaires passés il est possible de se faire une idée de la situation à venir que nous allons tous vivre peut-être dans toute son ampleur dans moins de 5 ans. Tout d’abord la chute de l’activité solaire va provoquer un refroidissement des eaux océaniques de surface, température pratiquement synchrone avec les variations de cette activité solaire qui a été mise en évidence en mesurant les variations du niveau des océans (cf. un précédent billet sur ce blog). Cette variation du niveau des océans est une conséquence directe des variations de température des couches supérieures de l’eau des océans mais l’autre effet est une moindre évaporation de cette eau, donc une augmentation et une aggravation des périodes de sécheresse dans les zones de la planète dites tempérées, en gros dans l’hémisphère nord entre 30 et 60 degrés de latitude, là où il y a la plus importante production agricole. Les régions inter-tropicales ne subiront pas de conséquences directes car elles resteront, comme elles le sont aujourd’hui, chaudes et humides. Il en sera de même dans l’hémisphère sud pour les mêmes latitudes dites tempérées mais il y a beaucoup moins de terres émergés au sud. L’inertie des océans retardera heureusement les effets délétères du refroidissement du climat. Bref, la première conséquence du refroidissement du climat sera la persistance d’épisodes de sécheresse durant plusieurs mois, un désastre économique et social rapidement hors de contrôle. Il apparaîtra alors que le Brésil et l’Argentine, relativement protégées par cette inertie thermique des océans, deviendront les garde-manger du monde occidental alors que ces mêmes pays occidentaux critiquent la politique agricole du Président Bolsonaro, curieux n’est-il pas ?

Un autre conséquence que les spécialistes n’ont pas analysés, obnubilés par leur dogme du réchauffement d’origine humaine, sera l’apparition d’épisodes météorologiques violents. Cs épisodes sont attribués à l’optimum climatique moderne attribué à tort à l’activité humaine. Il n’est pas permis de douter un instant que la chute du gradient de température existant entre les pôles et la région inter-tropicale, conséquence de l’optimum climatique moderne qui a pris fin ces dernières années, ne sera pas suffisante pour diminuer la fréquence et la violence des évènements météorologiques. Seuls les épisodes de sécheresse prolongée seront redoutables. Par exemple au XVIIe siècle, lors du minimum solaire et climatique de Maunder les îles Canaries furent dévastées par une invasion de criquets provenant d’Afrique qui cherchaient de la nourriture. Les îles de Lanzarote et Fuerteventura ne s’en sont jamais remises : elles sont restées depuis lors globalement désertiques.

Les combustibles fossiles les grands coupables ?

Le volet suivant de l’imposture de l’IPCC est la relation entre le CO2 atmosphérique (0,04 %) et le réchauffement du climat établie de manière mensongère qui a provoqué une levée de boucliers contre les combustibles fossiles non seulement de la part des organisations non gouvernementales mais aussi et surtout de la part des décideurs politiques qui ont adopté des plans de décarbonisation insensés pour juguler ce réchauffement du climat.

Capture d’écran 2019-10-02 à 10.58.32.png

Capture d’écran 2019-10-02 à 10.59.04.png

Les illustrations ci-dessus démontrent l’imposture de l’IPCC relative au rôle du CO2 dans le réchauffement contemporain et l’étrange concours de circonstances ayant permis la fabrique de cette fraude (voir le graphique CO2-temperature et Soleil-température dans le précédent billet, Willie Soon).

Le concept d’énergie verte ou renouvelable pour se passer des combustibles fossiles mais aussi de se passer de l’énergie nucléaire qui a été diabolisée par ces mêmes ONGs est un leurre, un doux rêve qui va paupériser en premier lieu les pays occidentaux dont les populations seront encouragées (et peut-être obligées par la loi) à moins consommer afin de réduire l’usage des combustibles fossiles selon la séquence : moins de consommation = moins d’énergie = moins de combustibles fossiles. Or l’énergie et son utilisation sont partout. Pour atteindre les objectifs irréalistes préconisés par l’IPCC il faudra se serrer la ceinture et vider nos poches, en d’autres termes devenir pauvres, très pauvres. Voilà ce qui attend les générations futures que nous, adultes et décideurs aujourd’hui, préparons pour ces générations futures si nous nous laissons encore manipuler par la propagande qui prétend que l’optimum climatique contemporain est (était) la conséquence d’une utilisation intensive des combustibles fossiles, un hoax en anglais, un mensonge entièrement construit par des fonctionnaires payés pour désinformer les peuples. L’énergie est le nerf central du développement, du développement sous toutes ses formes et dans tous les domaines. La Chine est devenue le premier consommateur d’énergie, conséquence de ses efforts pour avoir sorti en moins de 50 ans près de 900 millions de personnes de la pauvreté et leur procurer le statut de classe moyenne, une prouesse irréalisable sans énergie. Sans énergie la production agricole serait restée à des niveaux équivalents à celle du XIXe siècle. Toujours grâce à l’énergie la chimie et le bâtiment ont fait des progrès considérables.

Le spectre du manque d’énergies fossiles.

Je discutais il y a quelques jours avec un haut diplomate titulaire d’un PhD de l’Université de Stanford ayant effectué une grande partie de sa carrière au sein d’institutions financières internationales. Il pensait que le réchauffement du climat et le combat mondial contre ce réchauffement était une opportunité inespérée pour que les peuples prennent conscience des quantités limitées et donc nécessairement finies des énergies fossiles et qu’il fallait changer de paradigme civilisationnel. D’abord je lui rétorquais qu’il existe encore des réserves de gaz et de pétrole pour environ 80 ans et que seul le coût de l’extraction obligerait les populations à freiner l’utilisation de cette forme d’énergie. De plus les réserves de charbon sont suffisantes pour assurer une fourniture en énergie pour les 200 années à venir. Cependant, je lui faisait remarquer que le développement de l’énergie nucléaire pour produire de l’électricité, d’ailleurs préconisée par l’IPCC, était impératif afin de diminuer l’utilisation des énergies carbonées fossiles. Et puis j’ajoutais que j’étais optimiste en ce qui concerne la créativité humaine. Par conséquent il était hautement hasardeux de faire des prévisions sur le long terme. Il fut particulièrement surpris par mon optimisme.

Retour au XVIIIe siècle ?

Ce que prônent les organisations « non gouvernementales » (c’est faux elles sont toutes infiltré les gouvernements) est tout simplement un retour au style de vie du XVIIIe siècle, avant même l’invention de la machine à vapeur. Un retour en arrière tel que celui que veulent imposer ces ONGs n’est à l’évidence pas possible. L’explosion technologique et démographique qu’a connu le XXe siècle a été en majeure partie favorisée par l’optimum climatique contemporain exactement comme ce fut le cas aux XIe et XIIe siècles lors de l’optimum climatique médiéval qui vit l’édification des cathédrales. Le retour vers une période civilisationnelle sombre en raison d’un refroidissement du climat pourra être évité en mettant à profit les progrès technologiques récents. La créativité humaine fera le reste. Comme je disais à ce diplomate : il faut rester optimiste et rester sourd aux incantations des idéologues malthusiens qui veulent gouverner le monde par la force.

Mes lecteurs anglophones peuvent consacrer 12,5 minutes pour visionner ce documentaire de Tony Heller sur la fraude systématique et très bien organisée de l’IPCC : youtube.com/watch?v=8455KEDitpU&feature=youtu.be

et ceux qui ont apprécié peuvent voir cet autre documentaire :

youtube.com/watch?v=oYhCQv5tNsQ&feature=youtu.be

Aux dernières nouvelles, Madame Zharkova, dans un article récent paru dans la revue Nature, confirme que le climat va brutalement se refroidir dès 2020 et ce petit épisode « glaciaire » ne durera que … jusqu’en 2050-2060 ! De quoi provoquer d’immenses troubles planétaires dont tous les gouvernements du monde devraient se préoccuper dans l’urgence, l’urgence absolue.

Le transport aérien mauvais pour le climat ?

Le site « atmosfair » a mis en ligne un moyen didactique pour que chaque personne décidant de se déplacer en avion soit culpabilisée. J’ai donc entré les codes des aéroports de mon prochain vol long courrier (on peut aussi entrer les noms des villes de départ et d’arrivée) et voilà ce que le site m’a craché à la figure :

Capture d’écran 2019-07-19 à 09.26.41.png

Je n’ai pas perdu mon sang-froid et j’ai fait quelques calculs sachant que ce vol est effectué avec un Airbus A330. Cet avion embarque 140 tonnes de kérosène et au moins 300 passagers. La durée du vol Madrid-Tokyo est d’environ 13 heures, soit aller-retour une distance d’environ 24000 kilomètres. Avec ces données je suis arrivé à 1,4 tonne de carbone par passager.

Le calcul est très simple, il suffit de diviser la quantité de kérosène embarqué par le nombre de passagers et d’exprimer le résultat en kilos de CO2 ! En gros 140 tonnes de kérosène génèrent 430 tonnes de ce gaz hautement toxique pour le climat mais pas vraiment pour les plantes (objet d’un prochain billet).

Je me suis amusé à comparer cette donnée avec un voyage de 24000 kilomètres effectué en voiture, une voiture consommant 5 litres pour parcourir 100 kilomètres et je suis arrivé à quelques kilos près au le même résultat. Alors la question est de savoir quel est le moyen de transport le moins mauvais pour le climat :

Capture d’écran 2019-08-22 à 16.51.58.png

Vue du San Diego freeway à Los Angeles

Mon prochain voyage au Japon sera-t-il d’aller d’Espagne à Vladivostok en trans-sibérien ? J’aimerais bien savoir quelle quantité de diesel les locomotives du train brûlent pour un tel périple sans oublier d’inclure le voyage en bateau de cette ville jusqu’aux côtes nord de Honshu … N’importe quoi.

La forêt amazonienne et le climat : encore une « fake-news ».

1024px-Panorama_canaviais_interior_Sao_Paulo_2006_06.jpg

Chaque minute l’équivalent de la surface de 3 terrains de football de forêt amazonienne disparait pour laisser place à des cultures agricoles à haut rendement comme le palmier à huile, la canne à sucre, le sorgho ou encore, à l’extrême limite, l’élevage. Le nouveau dirigeant du Brésil a compris que la forêt amazonienne était un atout immense pour le développement de l’économie du pays, mais à quel prix ?

Il est évident que l’attitude des dirigeant brésiliens ayant donné leur feu vert pour une déforestation intensive émeut la communauté mondiale bien-pensante. Celle-ci met en avant les arguments classiques : mépris de la biodiversité, destruction du « poumon » de la planète, véritable génocide des populations amérindiennes natives, conséquences inimaginables sur le climat global, augmentation catastrophique du CO2 atmosphérique, disparition de centaines de milliers d’espèces vivantes encore inconnues, etc, etc …

Mais qu’en est-il au juste ? Il est nécessaire de garder l’esprit froid et si possible clair pour analyser cette situation devant laquelle Bolsonaro a mis le monde entier. Je pense que mes lecteurs vont croire que j’ai l’esprit dérangé en lisant les lignes qui suivent mais j’insiste même si je vais heurter les âmes sensibles. Le bilan carbone de la forêt amazonienne est nul. En effet la biomasse totale de ce système, considérons ici les végétaux, est constante, il n’y a donc pas de fixation nette de carbone. Si tel n’était pas le cas il y aurait dans toute l’Amazonie des centaines de mètres de végétaux accumulés à la surface de cette partie de la Terre qui finiraient pas se transformer en une sorte de tourbe ou à l’extrême limite en lignite. Un enfant de 7 ans pourrait comprendre cela. Toute cette biomasse végétale disparaît donc au fur et à mesure qu’elle se forme. Où va-t-elle ? Elle se transforme lentement mais sûrement en CO2 et en méthane.

Alors, deuxième point, il est soigneusement fait abstraction de la production massive de méthane provenant des fermentations de toute cette matière organique sur le sol amazonien. Et si on est un adepte convaincu de la théorie de l’effet de serre intense du méthane alors en toute logique raser trois terrains de football de forêt chaque minute pour créer des cultures vivrières à haut rendement devrait être considéré comme bénéfique pour le climat. Un terrain de football mesure 7500 m2 arrondissons donc à un hectare cette unité de mesure pour simplifier le raisonnement. Combien de tonnes de bois un hectare de forêt tropicale humide peut-il produire chaque année ? La réponse est simple : très peu, peut-être une tonne, deux tonnes au mieux – chaque année – si on gère cet hectare de forêt de telle façon que la production annuelle soit constante dans la durée et que le bois extrait soit renouvelé également chaque année. Encore faudra-t-il que le bois soit exploitable, c’est-à-dire qu’il ait une valeur commerciale.

Par contre si on plante des palmiers à huile, en quelques années ces arbres vont produire, avec un minimum d’intrants, 5 à 6 tonnes d’huile par hectare tous les ans. On ne peut qu’en déduire que le bilan carbone est alors très positif, peu importe quel sera ensuite l’usage de cette huile et où elle sera utilisée. Pour la canne à sucre – le Brésil est le premier producteur de sucre de canne du monde – la fixation de carbone est encore plus incroyable (la canne est une plante « C4 ») puisque chaque hectare produit environ 60 tonnes de canne. Cette quantité de canne, toujours par hectare, produit 8 tonnes de sucre ou par fermentation 4,2 tonnes d’éthanol. On retrouve donc à peu près le rendement du palmier à huile si ces deux cultures sont destinées à produire du carburant dit « vert » et par définition renouvelable chaque année. Seules certaines céréales comme le blé, dans des conditions de culture optimales, par exemple dans la plaine de Beauce en France, atteignent des rendements comparables à ceux de la canne à sucre en termes de fixation de carbone. La production de blé dans ces régions très favorables est de l’ordre de 9 tonnes par hectare.

Donc, procéder à une déforestation d’au moins une partie de l’Amazonie ne changera rien au bilan carbone de la Terre, ne modifiera en rien la teneur en oxygène de l’atmosphère et les conséquences sur le climat global de la Terre seront négligeables voire inexistantes sinon bénéfiques. Ce dont on est en droit de se soucier est le désastre des écosystèmes uniques que forme la forêt amazonienne. Il est donc justifié de se préoccuper de cet aspect de la déforestation de la forêt amazonienne mais certainement pas de ses conséquences sur le climat.

Le combat des protecteurs du climat de « Gaïa » contre la politique agricole du Président Bolsonaro est donc sans signification et n’a pas lieu d’être, ceci d’autant plus que de nombreuses régions de cette forêt sont impropres à la culture car elles sont inondables ou souvent inaccessibles en raison de la présence d’eau, elles ne seront jamais affectée par ce programme d’extension de l’agriculture brésilienne … encore une « fake-news » !

Illustration : champ de canne au Brésil.

Réchauffement climatique d’origine humaine : une pure fiction selon deux équipes de géophysiciens !

À 48 heures d’intervalle, deux équipes de géophysiciens, l’une finlandaise et l’autre japonaise, passent à la contre-attaque et dénoncent les mensonges répétés de l’IPCC. La question qu’il est opportun de se poser avant d’entrer dans les détails de ces publications est la suivante : l’IPCC a-t-il été mandaté pour ne considérer que l’effet du gaz carbonique sur la sensibilité du climat à l’exclusion de tout autre paramètre ? Si la réponse est oui, alors qui est le mandataire (ou les mandataires) et pour quelles raisons ? Si la réponse est non, alors je n’aimerais pas me trouver, en tant qu’ancien scientifique, dans la peau d’un quelconque des membres de ce groupement de fonctionnaires internationaux qui accumule les mensonges « par omission » depuis sa création, attitude qui l’oblige à inventer encore plus de mensonges.

En effet les variations du climat terrestre ne dépendent pas que des variations de la teneur en gaz carbonique dans l’atmosphère, ce que ces deux équipes de géophysiciens démontrent clairement. L’IPCC a « oublié » (ou omis) de mentionner les variations de l’activité solaire. L’IPCC au aussi – et surtout – oublié la présence de vapeur d’eau et de nuages dans l’atmosphère. Personne ne peut nier qu’il y a des nuages dans le ciel, à moins d’aller chercher un bédouin au milieu du désert d’Arabie ou au milieu du Sahara qui témoignera que : « oui il n’y a jamais de nuages ici », alors ces quelques personnes confirmeront le fait que l’IPCC n’a jamais pris en compte ce paramètre central dans l’évolution du climat. Ces prétendus scientifiques de haut niveau qui osent donner des conseils aux gouvernements de tous les pays du monde, tous les membres des Nations-Unies, ont avoué, la bouche en coeur, que modéliser la formation et les mouvements des nuages, c’était trop compliqué, alors ils ne l’ont pas envisagé ! On croit rêver …

Entrons d’abord dans le vif du contenu du travail publié par des géophysiciens de l’Université de Kobe (doi : 10.1038/s41598-019-45466-8). Ces universitaires ont reconstruit les changements climatiques concernant le régime des moussons durant les périodes de la fin du Pléistocène et de l’Holocène en s’intéressant aux plateaux du nord de la Chine recouverts de loess, ces poussières apportées par les vents depuis les déserts, et où allaient ces poussières portées par les vents lors des moussons. Il se sont rendu compte que, dans le passé, quand le champ magnétique terrestre faiblissait puis s’inversait, le régime des moussons d’hiver, comme des moussons d’été, était profondément affecté. Durant le changement de direction du dipôle magnétique de la Terre, changement qui survient tous les 400000 ans environ, les variations concomitantes des régimes de mousson qui en résultaient étaient dues aux variations de la couverture nuageuse – sans nuages, pas de mousson – et que cette variation était directement liée à l’intensité du rayonnement cosmique atteignant les plus basses couches de l’atmosphère. Les travaux de cette équipe ont été focalisés sur les variations du régime des moussons telles qu’elles ont pu être évaluées par des carottages des sédiments dans les baies d’Osaka et de Tokyo. La conclusion de ces travaux est sans appel : lors du changement de polarité du champ magnétique terrestre l’intensité du champ magnétique diminue dramatiquement pour atteindre une valeur d’environ 25 % seulement de celle normalement relevée au cours d’un cycle normal de ce champ magnétique terrestre. Il en résulte une formation beaucoup plus fournie de nuages provoquée par le conflit normalement existant entre l’air froid sibérien entrant dans la région de l’archipel nippon qui se confronte avec l’air chaud et humide océanique provenant du sud de l’archipel. Cette situation a pour effet de favoriser un effet d’ombrelle nuageuse plus important que la normale en raison de l’intensité du bombardement cosmique, le champ magnétique terrestre n’étant plus assez efficace pour atténuer l’effet de ce bombardement cosmique sur la formation de nuages.

Capture d’écran 2019-07-14 à 19.22.49.png

On peut constater qu’il s’agit d’une vérification indirecte des hypothèses formulées par Svensmark sur l’influence combinée des champs magnétiques solaire et terrestre sur la protection de la Terre vis-à-vis des rayons cosmiques et de leur effet sur le climat. L’IPCC n’a jamais mentionné ce type de paramètre dans leurs nombreux modèles d’évolution de la température moyenne de la Terre, et pour cause, c’est tout aussi compliqué à modéliser que les nuages … Cette « ombrelle nuageuse » comme les géophysiciens japonais l’ont appelée a eu pour résultat une série d’épisodes de refroidissement du climat sur la période 1 million d’années – 200000 ans avant l’ère commune qui a fait l’objet de ces études.

Quelle horreur ! Remonter des centaines de milliers d’années en arrière pour expliquer le climat terrestre actuel qui préoccupe le monde entier doit paraître une hérésie profonde car la science climatique infuse est exclusivement du domaine de l’IPCC puisque pour cet organisme il suffit de « modéliser » pour savoir quel temps il fera en 2100. Et il faut croire cet organisme de fonctionnaires internationaux richement rémunérés par les impôts des contribuables du monde entier, nous n’avons plus le choix, c’est ce que ne cessent de répéter inlassablement tous les gouvernements des pays développés, dont en particulier les ministres des « transitions énergétiques », naturellement tous encartés aux partis verts locaux qui ont voué leur carrière politique à la cause climatique, quelques que soient leurs agissements privés par ailleurs : ils sont les seuls à détenir le savoir, point barre.

Et pourtant ces travaux ont mis indirectement en évidence le fait que les nuages, indépendamment de la cause de leur abondance relative au cours du temps, sont le paramètre naturel majeur de la sensibilité du climat comme cela va être exposé ci-après.

Venons-en donc maintenant aux travaux de Kauppinen et Malmi, deux Docteurs en géophysique de l’Université de Turku en Finlande. Les choses se compliquent sérieusement pour l’IPCC obsédé depuis sa création par le CO2. Le titre de leur publication est évocateur sinon provocateur : « Pas d’évidence expérimentale en faveur d’un changement du climat d’origine humaine » (arXiv : 1907.00165v1 [physics.ao-ph] 29 juin 2019, via Cornell University). Il existe une très large incertitude dans la communauté scientifique en ce qui concerne la sensibilité du climat, c’est-à-dire la résultante des divers facteurs affectant le climat, sensibilité qui se mesure en degrés Celsius. Certains modèles affirment que cette sensibilité est proche de zéro alors que d’autres modèles prédisent des augmentations de température pouvant atteindre 9 degrés C en cas de doublement de la teneur atmosphérique en CO2. La plupart de ces modèles utilisent une théorie dite « modèle de circulation générale » pour leurs estimations. Les modèles considérés comme plausibles par l’IPCC prévoient des sensibilités entre 2 et 5°C mais il y en a d’autres qui n’arrivent pas à dégager une quelconque sensibilité :

Capture d’écran 2019-07-13 à 18.10.21.png

Pour se faire une opinion de ce qui se passe dans la réalité il est nécessaire pour analyser l’anomalie de température par rapport à une moyenne, ce qu’indiquent les modèles, de faire la distinction entre les facteurs naturels et les gaz à effet de serre. Le rapport AR5 de l’IPCC stipulait que les facteurs naturels ne pouvaient pas expliquer l’évolution récente des températures comme l’indiquait en résumé la figure ci-dessous où les observations sont matérialisées par un trait noir, le facteur anthropogénique avec ses incertitudes en rose et les « facteurs naturels en bleu :

Capture d’écran 2019-07-16 à 18.50.49.png

L’un des facteurs naturels influant sur la température moyenne est la couverture nuageuse qui est disponible à partir des observations satellitaires. En rassemblant sur un même graphique les données relatives aux températures moyennes observées, plutôt leur écart par rapport à une moyenne fixée à 15°C, et les variations de la couverture nuageuse exprimées par rapport à une superficie égale à 26 % de la surface terrestre, on peut constater de cette représentation que quand il y a beaucoup de nuages, les températures ont tendance à diminuer et inversement quand cette même couverture nuageuse diminue l’écart des températures par rapport à la moyenne augmente positivement. On ne peut qu’en déduire que les nuages bloquent l’énergie solaire qui atteint moins efficacement la surface du sol ou des océans et par conséquent la température qui y est mesurée diminue :

Capture d’écran 2019-07-13 à 17.20.10.png

Dans cette figure le zéro de l’ordonnée pour les températures est 15°C et le Δc est la fraction exprimée en pourcentage correspondant au changement de la couverture nuageuse par rapport à la moyenne globale de 26 % de couverture nuageuse basse sur l’ensemble de la surface de la Terre.

Or, les modèles utilisés – forcing naturel seulement ou forcing naturel + forcing anthropogénique – devraient en toute logique se superposer autour de la courbe noire des observations si le forcing naturel considéré dans ces modèles prenait correctement en compte la contribution des nuages bas (voir la figure précédente figurant dans le rapport AR5 de l’IPCC. Force est de constater qu’il n’en est rien.

Mais si on superpose l’anomalie des températures observées entre l’été 1983 et l’été 2008 avec les observations globales de la couverture nuageuse, on va remarquer, bien qu’il y ait un « bruit de fond » important, que si on multiplie les données de couverture nuageuse exprimées en pourcentage de la moyenne sur cette période, un nombre sans dimension physique, par « moins » 0,11°C / % (-0,11) on retrouve grosso modo la même courbe que celle décrivant l’anomalie des températures :

Capture d’écran 2019-07-13 à 17.21.19.png

Les valeurs « zéro » pour chacune de ces grandeurs ΔT (en degrés) et Δc ( en %) sont respectivement, il est important de le rappeler encore une fois, de 15°C et 26 % pour les deux graphiques. Ce facteur multiplicatif -0,11 introduit une valeur physique, des degrés centigrades, à la couverture nuageuse exprimée en pourcentage qui peut alors être corrélée à la sensibilité climatique elle-même exprimée en degrés C.

Nous allons découvrir que ce facteur multiplicatif de « moins 0,11 °C » n’est pas sorti comme par magie d’un chapeau. Force est de constater qu’il existe une remarquable concordance entre ces deux courbes. Qu’est-ce que cela signifie ? Les anomalies de température telles qu’indiquées en rouge dans la première figure tiennent compte des facteurs naturels et de l’effet des gaz à effet de serre sur la sensibilité climatique, alors que dans cette première figure la courbe bleue n’indiquait que le facteur naturel qu’est la couverture nuageuse. Il est opportun de rappeler ici que cette couverture nuageuse est mesurée 24/24 heures à l’aide de radars installés sur des satellites et que les températures sont appréciées par thermométrie infra-rouge également avec l’aide de satellites. Cette concordance signifie tout simplement qu’il n’y a pas lieu de considérer un quelconque effet des gaz dits à effet de serre puisque températures et couverture nuageuse sont directement liées !

Les contradicteurs pourront toujours arguer du fait que le laps de temps indiqué dans ce travail est trop court. Il a pourtant été tenu compte des données satellitaires homogènes disponibles. Toute disparité dans ces observations aurait nécessité des corrections pouvant prêter à contestation. D’autres remarques seraient du genre : mais puisque l’IPCC affirme que l’évolution des températures entre 1983 et 2008 est uniquement explicable par l’augmentation de la teneur en CO2 atmosphérique de 343 à 386 ppm, donc c’est vrai, point final. Effectivement, la température moyenne globale, une notion, certes, contestable sur le plan strictement physique, a augmenté durant cette période de 0,4 °C. Conformément à la théorie développée par ces mêmes auteurs ( arXiv:1812.11547v1, décembre 2018 via Cornell University) et le résultat illustré par les deux courbes ci-dessus directement déduit de cette théorie, si la concentration en CO2 augmente de Co à C et double ( C = 2Co) le ΔT obéit à la loi suivante :

Capture d’écran 2019-07-13 à 17.02.47.png

où ΔT2CO2 est le changement global de la température et Δc le changement de la couverture nuageuse. Le premier terme de l’équation décrit l’effet du CO2 sur la sensibilité du climat et le second terme l’effet naturel – les nuages – indépendamment du CO2. En replaçant ΔT2CO2 par la valeur de la sensibilité du climat au CO2 qui est de 0,24 °C alors selon le premier terme de l’équation ci-dessus la contribution du CO2 n’est que de 0,04 °C. C’est la raison pour laquelle cette minuscule augmentation est invisible dans le deuxième graphe ci-dessus. Ce même calcul peut être transposé en tenant compte non plus de la couverture nuageuse de basse altitude mais de l’humidité ou teneur en vapeur d’eau de l’atmosphère, une grandeur également mesurable à l’aide de satellites et les auteurs sont arrivés aux mêmes conclusions.

Ces résultats conduisent donc à la révélation surprenante qui est la surévaluation de la sensibilité climatique au CO2 d’un facteur 10 par l’IPCC car la rétro-action négative des nuages sur la température a tout simplement été ignorée. De plus la contribution de l’activité humaine à l’accroissement du CO2 atmosphérique total étant de l’ordre de 4 % alors on ne peut que conclure que le réchauffement climatique d’origine humaine n’existe tout simplement pas ! Durant les dernières 100 années la température globale moyenne a augmenté de 0,1 °C et la contribution humaine, c’est-à-dire l’augmentation du CO2 atmosphérique n’a été que de 0,01 °C dans la sensibilité du climat. La couverture nuageuse contrôle donc principalement la température.

Le fait que l’équipe japonaise ait mis en évidence un rôle majeur des rayons cosmiques dans la formation de la couverture nuageuse constitue une explication d’une grande importance pour la compréhension des changements du climat, passés mais aussi à venir. Oublions l’inversion des pôles magnétiques terrestres qui est un processus s’étendant sur des centaines de milliers d’années. Il faut rappeler que sur une échelle de temps de l’ordre de quelques dizaines d’années le facteur naturel ayant une influence prépondérante sur les variations de la couche nuageuse est l’activité magnétique solaire. La Terre évolue dans le champ magnétique solaire et le rôle protecteur de ce champ magnétique contre les rayons cosmiques dépend directement de son intensité (voir note en fin de billet). La faiblesse du cycle solaire (#24) finissant et les prévisions plutôt pessimistes pour le cycle solaire suivant (#25) ne sont pas encourageantes pour la « sensibilité climatique », en d’autres termes pour la température moyenne qui sera ressentie durant les années à venir.

Notes. Le facteur multiplicatif -0,11 n’est pas une vue de l’esprit mais le résultat d’une longue étude qui a été publiée en 2018 et mentionnée ci-dessus. Je suggère à ceux de mes lecteurs qui voudraient contester le contenu non pas de mon billet mais celui des travaux de J. Kauppinen et P. Malmi de lire les deux articles cités en référence ou encore de s’adresser directement à ces auteurs dont voici l’ e-mail : jyrkau@utu.fi

Note. Le champ magnétique solaire est beaucoup plus puissant et étendu que celui de la Terre. Ce champ dévie les rayons cosmiques, j’ai écrit de nombreux billets à ce sujet. Le champ magnétique terrestre dévie également certains rayons cosmiques mais son rôle majeur dans la protection de la vie sur la Terre est de piéger les particules émises par le Soleil qui constituent le vent solaire.