Les racines génocidaires du « New Deal » vert : limiter la croissance et … libérer Prométhée.

Capture d’écran 2019-08-01 à 22.52.30.png

Traduction d’un article de Matthew Ehret paru le 31 juillet 2019 sur le site Oriental Review. M. Ehret est un journaliste et conférencier canadien. Il a créé la Canadian Patriot Review et il est cofondateur de la Rising Tide Foundation. Les inserts en italique et entre parenthèses sont de mon fait.

Le Prince Charles vient de donner au monde 18 mois pour sauver la planète (tout le monde sait que le Prince Charles est un spécialiste du climat). Au cours des dernières années, le Prince Charles et son père, parmi d’autres aristocrates consanguins d’Europe, ont manifesté un incroyable intérêt pour la sécurité de la Terre contre les machines émettrices de pollution qui consomment avec avidité et se reproduisent sans limite tout en n’ayant aucune considération pour Gaïa, notre mère à tous. Ces derniers mois la prise de conscience de cet état de fait a pris la forme d’un « Green New Deal » promu aux USA par la représentante démocrate Alexandria Ocasio-Cortez et le sénateur Bernie Sanders (illustration). Une campagne à l’intention des enfants approuvée par le Pape François et dirigée par Greta Thunberg s’est répandue en Europe et en Amérique du Nord tandis qu’un club de milliardaires dirigé par Al Gore et George Soros finance le mouvement « Sunrise » pour lutter contre le réchauffement climatique.

Cette passion déclarée pour sauver la planète est-elle authentique ? Ces oligarques et milliardaires se soucient-ils vraiment du « Green New Deal » autant que les médias bienveillants le prétendent … ou bien y a-t-il quelques chose de beaucoup plus sombre en jeu ? Pour répondre à ces questions il faut d’abord examiner rapidement ce qu’est le « Green New Deal », d’où il vient et ce que ses concepteurs ont déclaré vouloir réaliser avec sa mise en oeuvre.

Comme son nom l’indique le « Green New Deal » est un vaste programme politique qui tire son nom du « New Deal » initial de 1932 promulgué sous la direction du Président Franklin Roosevelt. Il s’agissait à l’origine d’un programme de réforme bancaire et de construction d’infrastructures massif afin de guérir les Etats-Unis des blessures profondes provoquées par quatre années de grande dépression. Alors que le « Green New Deal » de 2019 propose également de réviser en profondeur les règles de la finance et la planification d’infrastructures sa similitude avec le New Deal de Roosevelt s’arrête là. Le New Deal de Roosevelt était motivé par des projets qui allaient augmenter les capacités de production de la nation dans son ensemble grâce à des investissements dans des projets hydroélectriques, des couloirs de transport, la Tennessee Valley Authority et des milliers d’autres projets d’infrastructure. Le « Green New Deal », a contrario, cherche à réduire la puissance du travail et réduire le niveau de vie des citoyens en investissant dans des infrastructures vertes à croissance zéro. Si la vraie nature de ce « Green New Deal » était explicitée personne ne boirait cette potion amère.

Comme les Présidents Poutine et Trump l’ont souligné à diverses reprises, non seulement il n’a jamais été prouvé que le CO2 d’origine humaine entraînait des variations climatiques, mais il est apparu clairement que, depuis 1998, la tendance au réchauffement qui prévalait depuis 1938 a fait une étrange pause. Tandis que la teneur en CO2 augmentait sans cesse des scientifiques ont alerté le monde sur le fait que l’on était sur le point d’entrer dans un âge glaciaire. Ce simple fait met en évidence l’embarrassante réalité selon laquelle l’augmentation des teneur en CO2 a toujours par le passé suivi des épisodes de réchauffement et jamais l’inverse, ce qui a tendance à prouver que ce « gaz à effet de serre » est effectivement affecté par le réchauffement du climat, probablement par des facteurs d’origine spatiale, comme l’a souligné à plusieurs reprises le Président Poutine. Encore plus surprenant encore pour certains, des études récemment publiées par la NASA ont montré que la biomasse mondiale avait augmenté de 10 % ces dernières années, en grande partie en raison des politiques de croissance économique de la Chine et de l’Inde. Après tout, on a observé que les plantes poussaient beaucoup mieux lorsqu’elles étaient nourries par des niveaux accrus de dioxyde de carbone.

Quelle est l’origine de ce « Green New Deal » ?

Comment autant de scientifiques respectables auteurs de travaux de grande valeur et autant de politiciens ont-ils pu supposer qu’une telle erreur était pourtant la vérité à tel point qu’une refonte totale de la société doit être envisagée ? Cela ne s’est évidemment pas produit du jour au lendemain, mais la pression actuelle pour transformer notre monde entier en le confrontant à la « réalité » devenue incontestable du réchauffement planétaire provoqué par l’homme trouve ses origines dans le mouvement néo-malthusien des années 1968-1972. Dans ce court intervalle de temps qui connut les assassinats de grands leaders politiques comme John F. Kennedy, Enrico Mattei, Martin Luther King et Bob Kennedy et la mort de Charles de Gaulle, le vide que laissa ces disparitions fut vite comblé par l’établissement sur la scène politique de lâches et de parasites. Il y eut un changement de paradigme vers le conservationnisme rejetant l’éthique de la croissance industrielle qui définissait la civilisation occidentale jusqu’à présent. Ce réveil malthusien répondait au défi lancé par le président de la société eugénique et fondateur de l’UNESCO Julian Huxley (illustration,frère d’Aldous) qui écrivit en 1946 :

Capture d’écran 2019-08-01 à 17.35.16.png

« L’unification politique dans un gouvernement mondial sera nécessaire même si toute politique eugénique radicale sera politiquement et psychologiquement impossible pendant de nombreuses années, il importera que l’UNESCO veille à ce que ce problème eugénique soit examiné avec le plus grand soin et que l’esprit du public soit informé des problèmes en jeu, de sorte que ce qui est maintenant impensable puisse au moins devenir pensable. »

Naturellement, à peine un an après que le monde eut pris conscience des horreurs de l’eugénisme nazi Huxley et ses associés parmi l’élite anglo-américaine qui finança Hitler eurent un grand travail à réaliser pour redorer l’image de l’eugénisme et le reformuler sous un autre nom.

1001 Nature Trust et le Club de Rome

En 1968 fut fondée une organisation connue sous le nom de Club de Rome sous la direction de deux misanthropes Aurelio Peccei et Sir Alexander King. Rapidement cette organisation (on dirait aujourd’hui un « think-tank ») prit rapidement de l’ampleur dans le monde anglo-saxon avec des membres comptant divers idéologues de la communauté politique, économique et scientifique qui ont tous convenu que la meilleure forme de gouvernance de la société était une dictature scientifique. Sir Alexander King a écrit :

« En cherchant un nouvel ennemi pour nous unir, nous avons eu l’idée que la pollution, la menace du réchauffement de la planète, les pénuries d’eau, la famine, etc … iraient de l’avant. Tous ces dangers sont causés par l’intervention humaine. Ce n’est que par le biais de changements d’attitude qu’ils peuvent être surmontés. Le véritable ennemi est donc l’humanité elle-même.« 

Afin de financer ce changement de paradigme le 1001 Nature Trust avait été fondé en 1970 par le Prince Bernhard des Pays-Bas (Bernhardt de Lippe-Biesterfeld, époux de la future reine Juliana), porteur de sa carte de membre du parti nazi et fondateur du Groupe Bilderberg en 1954, qui avait travaillé aux côtés du Prince Philip Mountbatten (époux de la Reine Elizabeth II), son compagnon misanthrope, et de Sir Julian Huxley pour créer quelques années auparavant le World Wildlife Fund (WWF). Le plan était très simple : chacun des 1001 membres fondateurs a versé 10000 dollars dans la fiducie qui a ensuite été dirigée vers le changement de paradigme vert. Parmi les autres membres importants du Club 1001 on compte des têtes couronnées royales et princières, des milliardaires et des sociopathes technocratiques qui ne souhaitaient rien d’autre que gérer ce « Nouveau Monde » hautement prometteur financièrement en tant que membres « alpha ». Beaucoup d’entre eux firent ensuite partie du Club de Rome dont le Canadien Maurice Strong qui est ensuite devenu vice-président du WWF sous la présidence du Prince Philip en remplaçant un autre vice-président du WWF, Louis Mortimer Bloomfield. Bloomfield était membre du Club 1001 et il avait été identifié par le procureur de la Nouvelle-Orleans, Jim Garrison, comme étant l’un des instigateurs de l’assassinat du Président John F. Kennedy, notoirement opposé aux mouvement malthusien.

Le document qui devint ces années-là la véritable bible et le plan directeur de ce nouveau mouvement anti-humaniste et néo-malthusien qui a donné naissance au programme « Green New Deal » d’aujourd’hui s’intitule « Limits of Growth » paru en 1972. Il détient le record du livre sur l’écologie le plus lu, vendu à 30 millions d’exemplaires et traduit en 32 langues. Un article récent célébrant la parution de cet ouvrage déclarait :

« Cet ouvrage a contribué au lancement de la modélisation informatique moderne de l’environnement à l’échelle mondiale. Après la parution de « Limits of Growth » les environnementalistes, scientifiques et décideurs politiques ont de plus en plus pensé aux problèmes écologiques en termes planétaires et comme étant interconnectés de manière dynamique. Il faut relire ce livre, car plus que tout autre il a introduit le concept de changement climatique anthropocentré auprès d’un immense public.« 

Le livre lui-même est le résultat d’une étude réalisée par une équipe de statisticiens du MIT co-signée par Jay Forrester et Dennis Meadows. Comme Alexandria Ocasio-Cortez aujourd’hui, ces jeunes professeurs du MIT n’étaient que des marionnettes en papier manipulées par les plus grands ingénieurs en sciences sociales qui géraient le spectacle en coulisse. Cette étude émanant du MIT n’a même pas été initiée au MIT, elle le fut à Montebellow au Québec en 1971 sous la houlette de Pierre Elliot Trudeau, l’un des « parrains » du Club de Rome, qui a alloué de l’argent des contribuables canadiens à ce projet. Il fut décidé lors d’une réunion rassemblant un réseau de conseillers privés de la fondation Rhodes (qui finance des bourses d’étude) réunis autour d’Alexander King (illustration ci-dessus), Maurice Strong, Maurice Lamontagne (fondateur d’Environnement Canada), Michael Pitfield, fondateur du SCRS, service de renseignement et de sécurité du Canada et le Gouverneur général Roland Michener de financer ce projet. Le projet a ensuite été en partie financé au MIT par la fondation Volkswagen dont le passé soutenu par les nazis aurait dû indisposer certains statisticiens du MIT.

Le malthusianisme en bref.

Les membres du Club de Rome/WWF/Club 1001 se sont surnommés « néo-malthusiens » en référence à l’idéologie popularisée par Thomas Malthus (illustration ci-après). L’essai de Malthus paru en 1799 sur le principe de la population a noté de façon pessimiste que la population humaine s’accroissait de manière géométrique tandis que la production alimentaire augmentait de manière arithmétique, menant inévitablement à un point critique de surpopulation.

malthus-point-of-crisis.jpg

Ce point de crise a été le fondement du concept que les auteurs de « Limits of Growth » ont appelé par la suite la « capacité de charge » (carrying capacity). Bien sûr, plutôt que de permettre à ces « bovins » d’humains de développer leur esprit afin de faire plus de découvertes et d’inventions qui compenseraient ce point critique, Malthus, et plus tard ses héritiers, savaient que l’Empire britannique dont il était un employé n’aurait jamais pu exister si ce pouvoir créatif n’avait pas été libéré. En dépit des faits Malthus a froidement préconisé l’élimination des faibles pour faire de la place aux plus forts. N’étant pas au fait des subtilités de langage utilisées dans l’actualité au XXIe siècle, Malthus est allé jusqu’à proposer que l’on pratique des infanticides :

 » Tous les enfants naissant au delà de ce qui serait nécessaire pour maintenir la population au niveau souhaité doivent nécessairement périr, à moins que les décès des adultes leur laisse une place suffisante … nous devons donc faciliter, au lieu de tenter maladroitement et en vain, les opérations de la nature dans la production de cette mortalité.« 

En reformulant les hypothèses de Malthus dans un système informatique complexe, ces néo-malthusiens ont voulu créer un mouvement d’annulation volontaire fondé sur la honte parmi une génération entière de baby-boomers. Bien sûr, si vous supposez que le progrès technologique est terminé, il apparaîtra certainement qu’un système fermé des ressources limitées et fixes ne peut être géré que par une élite technocratique qui obtient des rendements décroissants à mesure que le monde s’installera dans un « équilibre mathématique » imaginaire de la « durabilité ». Heureusement pour l’humanité la réalité est rarement conformes aux idéaux pessimistes des racistes et des impérialistes.

Sir-Alexander-King.jpg

L’enchainement de Prométhée.

Formé depuis longtemps à Londres et proche collaborateur du premier ministre canadien Pierre Elliot Trudeau, Maurice Lamontagne était membre du Club de Rome et ancien président du conseil privé de ce club. Parmi tous les membres du Club de Rome Lamontagne a été toujours décisif en identifiant le plus grand ennemi de la Terre comme étant la créativité humaine elle-même. Dans ses rapports au Sénat canadien qui réformaient le financement et la planification scientifique canadienne, Lamontagne écrivit :

 » La nature impose des contraintes précises à la technologie elle-même et si l’homme persiste à les ignorer l’effet final de son action à long terme peut être de réduire plutôt que d’accroître le potentiel de la nature en tant que fournisseur de ressources et d’espace habitable … Mais alors une question se pose : comment pouvons-nous arrêter la créativité de l’homme ? « 

Reconnaissant à juste titre que l’envie de découvrir l’inconnu est inhérente à la condition humaine Lamontagne répond à sa propre question en écrivant :

 » Comment pouvons-nous proclamer un moratoire sur la technologie ? Il est impossible de détruire les connaissances existantes, il est impossible de paralyser le désir inné de l’homme d’apprendre, d’inventer et d’innover … En dernière analyse, nous constatons que la technologie n’est qu’un outil créé par l’homme à la recherche de ses aspirations infinies et n’est pas l’élément significatif envahissant le milieu naturel. C’est la croissance matérielle elle-même qui est à l’origine du conflit entre l’homme et la nature. « 

Ainsi donc la créativité et ses fruits du progrès technologique ne sont acceptables que s’ils réduisent le conflit entre l’homme et la nature, selon Lamontagne ! La « mauvaise » technologie, dans sa formulation, a pour effet d’augmenter la croissance matérielle de l’humanité, c’est-à-dire les pouvoirs de productivité. Si en revanche nous promouvons des technologies à faible densité énergétique telles que les éoliennes, les panneaux solaires et les biocarburants, qui entraînent une réduction de la capacité de travail de l’homme alors la technologie peut être définie comme une « bonne chose » selon cette logique tordue. Ce rapport a été repris par un autre membre du Club de Rome, Omond Solandt, qui l’a présenté au Sénat américain. Solandt a initié sa carrière comme conseiller scientifique auprès de Lord Mountbatten (mentor aux penchants pédophiles du Prince Philip) pendant la seconde guerre mondiale puis il a dirigé le Conseil de recherches pour la défense jusqu’en 1957 et il a ensuite intégré le MK Ultra (lien en fin de billet, je conseille à mes lecteurs de lire l’article en français sur MK Ultra) aux côtés du tristement célèbre Ewan Cameron de l’Université McGill au Canada. Solandt a dit de manière sophistiquée que  » il n’est plus nécessaire de faire de la science. Il faut plutôt comprendre, guider et utiliser efficacement la science pour le bien-être de l’humanité « . Ce qui définit « le bien-être de l’humanité » pour un membre promoteur de MK Ultra ne peut que donner des frissons !

En prévision du déchainement de l’ordre post-industriel avec la fluctuation du dollar américain en 1971 et la destruction du système monétaire de Bretton Woods qui incluait au moins un minimum de réglementations des spéculateurs monétaristes, Lamontagne a prescrit que la nouvelle sagesse ne visait plus seulement les découvertes scientifiques dans les domaines médical, atomique et spatial mais une réorientation vers des projets d’ingénierie plus pratiques. Il a aussi proposé de réduire les budgets alloués aux sciences « dures » en élargissant cette notion de science aux sciences humaines, sociales et monétaires. Ces programmes ont progressivement absorbé une grande partie des fonds alloués aux sciences exactes et à la science pure. Dans le premier volume de son rapport Lamontagne a déclaré ceci :

 » La nouvelle sagesse prescrit qu’un effort de recherche et développement supplémentaire soit consacré aux sciences de la vie et aux sciences sociales plutôt qu’aux sciences physiques, aux objectifs économiques et sociaux plutôt qu’à la curiosité et à la découverte. « 

À la défense de Prométhée

Un scientifique canadien de premier plan a rapidement pris position contre cette transformation impulsée par le Club de Rome. Ronald Hayes, Professeur de sciences de l’environnement à l’Université Dalhousie et fonctionnaire canadien, a écrit un livre en 1973 intitulé « L’Enchainement de Prométhée : l’évolution d’une structure de puissance pour la science canadienne  » dans lequel il a identifié Lamontagne comme un serviteur du dieu Zeus décrit par Eschyle dans la célèbre tragédie Prométhée enchaîné. Le drame grec antique racontait l’histoire du demi-dieu Prométhée, puni pendant dix-mille ans pour avoir enseigné à l’humanité, par défi, l’usage du feu que Zeus avait monopolisé pour lui-même. En attaquant l’appel de Lamontagne à déconstruire toute la structure de financement de la science canadienne mise en place entre 1938 et 1971 et à mettre en place un nouveau système technocratique le Professeur Hayes déclara que le principal problème avec l’approche de Lamontagne s’appelait le syndrome égyptien :

 » Si seulement nous pouvions détruire tout ce que les Israéliens ont construit et réduire la Palestine à un désert, tout le monde serait égal et nous pourrions commencer à construire un monde meilleur pour les Arabes. Ainsi Lamontagne veut détruire le conseil national de la recherche, l’organisme qui a lancé et nourri une grande partie de la recherche gouvernementale et abondé les programmes des cycles supérieurs dans les universités. C’est une erreur de l’administration Trudeau dont se fait l’écho Lamontagne. « 

Il n’y a pas de limite à la croissance.

Dix ans après la publication de « Limits of Growth » le candidat à la présidence américaine et fondateur de la Fusion Energy Foundation, Lyndon Larouche (1922-1919) a réagi au mouvement néo-malthusien avec encore plus de force que Hayes. Dans sa première publication en 1982 de son ouvrage « Il n’y a pas de Limite à la Croissance  » Larouche écrivait :

 » Ce n’est pas la croissance de l’industrie qui détruit les forêts du monde. Dans la plupart des cas la cause est un déficit de production industrielle, une mauvaise gestion industrielle de l’écosphère. Au cours des 15 dernières années la plus grande cause et unique de destruction de l’ « écologie » du monde a été la tolérance des politiques réclamées par les soi-disant écologistes, les soi-disant néo-malthusiens du Club de Rome, l’Institut International pour l’Analyse des Systèmes Appliqués, le Fond mondial pour la nature, l’Institut Aspen, la Fondation Ford, la Fondation Rockfeller, le US Sierra Club, etc. Nous n’investissons pas assez d’énergie produite industriellement dans la gestion de l’eau, les produits chimiques, etc, l’agriculture de la biosphère terrestre. Dans le même temps nous utilisons la biomasse comme combustible et d’autres usages traditionnels. Nous devrions plutôt utiliser de l’énergie d’origine nucléaire, utiliser des matériaux modernes fabriqués industriellement à la place du bois d’oeuvre pour la construction de logements, etc. « 

Décrivant l’influence extraordinaire que les limitations de la croissance ont eu sur la consolidation du renouveau néo-malthusien comme facteur dominant dans les cercles politiques occidentaux, Larouche a identifié les erreurs fondamentales qui ne sont que timidement remises en cause par les prises de position de Trump aux USA. Il a déclaré :

 » L’étude elle-même, « Limits of Growth », était particulièrement frauduleuses à deux égards. Premièrement, en essayant de prouver que la société industrielle utilise trop rapidement les ressources naturelles qui restent. Meadows et Forrester ont fortement minimisé les quantités connues de ces ressources. Deuxièmement, plus important encore, Meadows et Forrester ont projeté le taux de consommation des ressources naturelles en utilisant des systèmes d’équations linéaires simultanément. Cette utilisation dans un « modèle » informatique d’équations linéaires intègre l’hypothèse selon laquelle il n’y a aucun progrès technologique dans la société. En fait le progrès technologique, y compris la redéfinition fondamentale de la signification des « ressources naturelles », constitue depuis cinq siècles le trait marquant de la civilisation européenne. Les limites de la croissance dans ce modèle reposaient sur l’hypothèse que de tels progrès technologiques étaient parvenus à un arrêt brutal et absolu. « 

Entropique ou anti-entropique ?

Tout comme Thomas Malthus quelques siècles auparavant les néo-malthusiens se devaient de nier l’existence des progrès technologiques – et de leur origine dans la créativité humaine – comme moyen par lequel les capacités de performance de l’humanité sont modifiées en fonction des découvertes et des inventions. Cette relation de l’humanité avec l’univers qui l’entoure définit absolument notre existence en tant qu’espèce au dessus de toutes les autres créatures de la biosphère. Etant donnée que les capacités de performance des autres espèces vivantes sont définies par l’environnement et par des caractéristiques génétiques, l’être humain peut transcender ces conditions de manière délibérée à condition de pouvoir accéder au meilleur patrimoine culturel et éducatif du passé, à condition d’avoir le désir et la curiosité de porter cet héritage vers des limites toujours plus élevées sans jamais s’attendre à butter sur un équilibre mathématique ou une mort par chaleur entropique, comme le prédisent avec leur pessimisme bon nombre de statisticiens de l’école « Limits to Growth ». Contrairement à cette école, les travaux de Larouche en science de l’économie physique réalisés entre 1952 et 1956 reposaient sur le concept opposé selon lequel la capacité de l’humanité de passer de formes de consommation d’énergie faibles à élevées (c’est-à-dire du bois au charbon, du charbon au pétrole, du pétrole à la fission nucléaire puis à la fusion, etc) permet de transformer sans limite le potentiel économique physique de l’humanité. Des sauts créatifs dans l’inconnu conduisent à de nouvelles découvertes de principes permettant à la densité de la population relative potentielle de l’humanité d’augmenter avec l’amélioration des niveaux de vie, de l’espérance de vie et du potentiel cognitif d’une manière qu’aucun autre animal – ce que les malthusiens souhaitent pourtant nous faire croire – ne peut atteindre. Ce fait même de la vie est la preuve essentielle que non seulement l’humanité mais aussi l’univers n’a aucune limite en ce qui concerne son potentiel de perfectionnabilité constante et donc son essence anti-entropique.

Le Vrai New Deal

Il faut espérer que ces lignes ont démontré que le « Green New Deal » n’est rien d’autre qu’une nouvelle forme d’eugénisme se faisant passer pour une réforme socialement consciente. Le fait est que ce « Green New Deal » n’est pas vert (car un monde recouvert de panneaux solaires accélérerait la désertification de la terre par chauffage) mais il n’y a aucun lien avec le véritable New Deal. Les effets d’un programme visant à réduire les émissions de CO2 à des niveaux « acceptables » conformément à la volonté des Britanniques aujourd’hui n’apporterait rien d’autre que le chaos, la famine et la dépopulation à l’humanité.

bering-straight.jpg

Fort heureusement, le monde aujourd’hui compte près de 8 milliards d’âmes et, en dehors d’une poignée d’oligarques et de technocrates bornés et avides, ce sont tous des esprits qui pourraient volontairement se perfectionner et se déployer pour faire de grandes découvertes dans les domaines de la science et des arts. Le monde dans lequel vivent toutes ces personnes est de plus en plus façonné par le vrai New Deal dans le cadre de l’initiative Routes et Voies commerciales dirigée par la Chine, initiative qui compte maintenant 160 pays et représente le volume financier de plus de 20 plans Marshall. Cette initiative nécessite un retour à une éthique fondée sur l’amour de l’humanité et la conviction de l’utilité des progrès scientifique et technique. Cet esprit a été parfaitement explicité par le Président Xi Jinping qui a déclaré au Dialogue des Civilisations Asiatiques le 15 mai dernier :

 » Pour qu’une civilisation perdure il faut tout faire pour la maintenir en vie et valoriser son patrimoine de génération en génération. Plus important encore une civilisation doit s’adapter à l’évolution de la situation et innover. L’histoire des civilisations du monde nous dit que chaque civilisation doit progresser avec son temps et profiter du meilleur de ce temps pour se développer. Nous devons trouver de nouvelles idées pour donner une impulsion et une inspiration au développement de nos civilisations. Grâce à ces efforts, nous livrerons à nos civilisations des réalisations qui transcenderont dans le temps et l’espace et auront un attrait durable. Pour stimuler l’innovation et la créativité des personnes le meilleur moyen est de mettre en contact les différentes civilisations, de détecter les points forts des autres et d’y faire appel. « 

Le fait que les Présidents Poutine et Xi Jinping aient créé une alliance basée sur la planification à long terme, de grands projets d’infrastructure visant à améliorer les conditions de vie de tous et des progrès à la pointe de la technologie indique que le « grand jeu vert » créé à la suite des disparitions des dirigeants anti-malthusiens dans les années 1960 va enfin se terminer. L’automutilation lente des Etats-Unis a enfin une chance de s’arrêter avec le premier président anti-malthusien élu depuis l’époque Reagan qui était plutôt bien intentionné bien que parfois stupide, il y a 35 ans. Reagan n’avait pas cette alliance russo-chinoise avec laquelle coopérer pendant la guerre froide contrairement à Trump. L’offre faite à l’Amérique de rejoindre l’initiative Belt and Road et un nouveau système de coopération stratégique est sur la table du Président. Reste à savoir comment le Président Trump réagira.

Lire aussi https://fr.wikipedia.org/wiki/Projet_MK-Ultra )

Crise climatique : l’IPCC a trouvé une « vache-émissaire » !

Florilège du 9 août 2019

Capture d’écran 2019-08-09 à 15.52.08.png

Capture d’écran 2019-08-09 à 15.56.16.png

Capture d’écran 2019-08-09 à 16.00.27.png

Capture d’écran 2019-08-09 à 16.06.38.png

L’agriculture en général et l’élevage en particulier sont pris pour cible par les éminents scientifiques onusiens qui ont pour mission de prendre soin de « notre climat ». Il faudra bientôt s’abstenir de manger de la viande de boeuf, de porc, de mouton, de poulet et peut-être aussi de poisson. Il faudra probablement se contenter d’insectes et de viande artificielle comme source de protéines. Et puis un jour on ira faire la queue pour se fournir en « Soylent Green », les petites galettes de couleur verte fabriquées avec de la chair humaine, ça nous rappellera le fameux film de Richard Fleischer (1973) avec Charlton Heston et Edward G. Robinson. Ce dernier est euthanasié et son corps recyclé en galettes vertes. Les femmes n’ont plus d’enfants, c’est ce que préconise l’IPCC, elles sont considérées comme du mobilier : charmant !

Il m’est donné l’occasion ici de remémorer à mes lecteurs que nos ancêtres étaient carnivores bien avant de devenir agriculteurs et l’alimentation carnée fut un facteur déterminant dans l’accroissement du volume cérébral au cours de notre évolution … Ceci me laisse penser que l’humanité est au bord de la régression intellectuelle. Les mouvements animalistes en sont une illustration évidente : quand on élève l’animal au rang humain il n’y a qu’un pas à franchir pour abaisser l’homme au niveau de l’animal, à la production de « galettes vertes » …

Capture d’écran 2019-08-08 à 18.54.30.png

Mais au fait, Le Figaro n’a pas mentionné un effet du réchauffement climatique (probable) pour que des parcs à huitres vendéens arrivent à compter parmi leurs habitants des huitres géantes, je suis perplexe.

Retour sur la théorie de l’effet de serre avec des exemples.

800px-Greenhouse-effect-t2.svg.png

Ce billet n’a pas la prétention de mettre à plat, encore une fois, la théorie de l’effet de serre, j’ai écrit de nombreux billets sur ce blog à ce sujet. Il me paraît néanmoins nécessaire de clarifier les idées. L’effet de serre, par définition, s’applique à un système fermé isolé de l’espace environnant. Je prends un exemple concret. Sur le toit de la maison de mon fils à Tokyo il y a un panneau solaire construit avec un matériau sombre dont la fonction est de chauffer de l’eau. Ce panneau se trouve dans un châssis en verre qui l’isole du milieu extérieur, une sorte de serre. Ainsi, même par temps froid, le moindre rayonnement solaire sera suffisant pour produire de l’eau chaude. Il s’agit là d’une application directe de l’effet de serre : le panneau est isolé du milieu extérieur et l’énergie thermique provenant du Soleil est transférée à l’eau qui circule à l’aide d’une pompe avec un rendement relativement satisfaisant. Combiné à une isolation thermique correcte des canalisations l’eau du ballon d’eau chaude peut atteindre 60°C.

Que se passe-t-il au niveau du panneau solaire ? Sa température reste toujours inférieure à celle de l’air de l’enceinte vitrée tant qu’elle n’a pas atteint une température d’équilibre. Alors la pompe s’arrête. Le circuit de chauffage du ballon est empli d’un mélange eau + glycol pour éviter qu’il gèle en hiver et un échangeur de chaleur se trouve incorporé au sein du ballon d’eau chaude ou à chauffer, c’est selon. Pour que l’installation fonctionne il faut donc que la température du fluide circulant dans le panneau reste inférieure à celle de la « serre » dans laquelle se trouve ce panneau afin qu’il y ait un transfert de chaleur de la source chaude – la serre chauffée par le rayonnement infra-rouge provenant du Soleil – vers le panneau solaire, le corps froid. Au risque de me répéter, quand la différence de température entre l’atmosphère de la serre, une boite de quelques centimètres d’épaisseur épousant les dimension du panneau lui-même, et le liquide glycolé diminue jusqu’à atteindre un équilibre, la pompe de circulation s’arrête. En effet des capteurs permettent de piloter cette opération.

Revenons à la maison de mon fils. En été il fait très chaud à Tokyo et il est agréable sinon indispensable de faire fonctionner des climatiseurs. Un climatiseur fonctionne sur le même principe qu’un réfrigérateur. Un petit compresseur intervient dans le système pour obliger un fluide gazeux à changer de phase et passer de l’état gazeux à l’état liquide. Dans cet état liquide il est refroidi en circulant dans une sorte de radiateur à l’aide d’un ventilateur se trouvant dans la partie extérieure de l’installation. À l’intérieur de l’habitation se trouve un autre radiateur dans lequel va ensuite circuler ce liquide qui va alors être réchauffé par l’air de la pièce provoquant sa vaporisation, pour être ensuite compressé et refroidi à l’extérieur, etc. C’est très schématique mais c’est au moins facile à comprendre. Le but du climatiseur est de transférer de la chaleur d’une source froide, l’intérieur de la maison qu’il faut refroidir, vers un milieu plus chaud, l’air extérieur car l’isolation de la maison n’est pas parfaite et l’air a tendance à se réchauffer (voir note en fin de billet).

Ces deux exemples sont parfaitement décrits par les lois de la thermodynamique. Il ne peut y avoir de transfert d’énergie thermique, sous quelque forme que ce soit, que d’un corps chaud vers un corps froid : c’est le cas du panneau solaire pour chauffer l’eau du bain et de la cuisine. Toute action contraire à ce principe, c’est-à-dire transfert de chaleur d’un corps froid vers un corps chaud, nécessite l’intervention d’un travail extérieur au système : et dans le cas du climatiseur il s’agit du compresseur. La petite pompe du circuit de chauffage de l’eau n’intervient pas dans le processus de transfert, elle ne fait que faciliter la circulation du fluide glycolé. Une illustration de cette dernière remarque peut se trouver dans les premières installations de chauffage central du début du XXe siècle. Il n’existait pas de pompe de circulation et l’eau chaude « montait » du sous-sol vers les étages par simple différence de densité entre l’eau chaude légèrement plus légère que l’eau froide qui, elle, redescendait par gravité vers la chaudière.

Pourquoi ne peut-on pas appliquer ces deux exemples à l’atmosphère ? Tout simplement parce que l’atmosphère est soumise à la gravité terrestre. Au niveau de la mer la pression exercée par le poids de l’air est de 10 tonnes par m2. Sur un carré de 2 mètres sur 2 le poids de l’atmosphère exerce une pression égale au poids d’un semi-remorque de 40 tonnes. Plus on monte en altitude plus l’air se refroidit car la pression diminue et cette pression diminuant la densité des molécules de gaz constituant l’atmosphère diminue également. Ce refroidissement est presque égal à 1 degré pour 100 mètres ce qui est considérable. Tous les climatologues qui ont érigé l’effet de serre en dogme ont oublié que la gravitation terrestre agissait « aussi » sur l’atmosphère !

J’habite pratiquement au niveau de la mer et quand je vais voir mon dentiste qui habite dans un quartier de la ville situé à 600 mètres d’altitude la température a diminué de près de 5 degrés ! Et si je monte au pied du volcan Teide, à 2000 mètres d’altitude, j’ai carrément froid ! Au sommet du téléphérique qui monte au Teide, à 3500 mètres d’altitude autant dire qu’il n’y a plus trace de végétation car il gèle toutes les nuits, toute l’année. Comment un climatologue s’y prendra-t-il, après l’exposé de ces quelques exemples, et par quel subterfuge, qu’il peut y avoir un quelconque transfert de chaleur des hautes couches de l’atmosphère vers le sol comme cela est indiqué sur l’illustration (Wikipedia). J’attends avec impatience une explication, surtout de la part des « spécialistes » de l’IPCC qui ont érigé l’effet de serre du CO2 en ce dogme auquel il faut croire. Comment les couches d’air se trouvant au sommet du Teide peuvent-elles réchauffer l’air situé à 1500 mètres en dessous dans la caldeira de quelque manière que ce soit ou encore au bord de la plage de Las Teresitas d’où on peut apercevoir le volcan ?

Notes. L’exemple du climatiseur doit être complété en mentionnant que le même équipement peut aussi être utilisé pour chauffer l’intérieur de la maison durant les mi-saisons. Le climatiseur fonctionne alors comme une « pompe à chaleur » refroidissant, strictement par le même principe, l’air extérieur pour réchauffer l’air intérieur, c’est-à-dire toujours avec une intervention mécanique externe au système dans le respect du deuxième principe de la thermodynamique. Apparemment l’application de l’effet de serre au climat ne semble en aucun cas respecter ces applications de tous les jours du deuxième principe de la thermodynamique. Pour ce qui concerne la formation des nuages, celle-ci ne peut avoir lieu que parce que la température de l’air en altitude provoque une condensation de la vapeur d’eau. Dès lors si cet effet de serre qui fait l’objet du fondement des théories anti-scientifiques de l’IPCC aboutirai à aucune formation de nuages puisque les hautes couches de l’atmosphère réchaufferaient aussi la vapeur d’eau. De simples observations suivies de raisonnements simples démentent cette théorie. Prochain billet dimanche 11 août.

Silence ! On vous écoute.

Capture d’écran 2019-08-07 à 12.05.31.png

Des millions de personnes ayant un téléphone cellulaire ou une smartwatch ou encore abonnés à Amazon-Prime sont espionnés 24 heures sur 24. Si j’ai mentionné Amazon ne sont espionnés que les clients qui ont un abonnement télévision via cette entreprise et disposent donc de l’assistant vocal Alexa et si j’ai mentioné Apple ne sont espionnés que les clients ayant installé l’assistant vocal Siri sur leur smatphone ou leur smartwatch. Quand vous êtes bien tranquille dans votre chambre et que vous honorez votre partenaire votre smartphone vous espionne et analyse la signification des mots que vous prononcez. Apple connait l’endroit où vous vous trouvez par géolocalisation et quel vocabulaire intime vous utilisez. Chez votre médecin, avec votre smartphone dans votre poche, Apple – pour votre bien – suit la conversation que vous partagez avec lui si vous n’avez pas éteint votre téléphone, geste que peu de personnes effectuent au cours de la journée ou même la nuit.

Cet accès direct à la vie privée est ensuite traité par Apple ou Amazon pour déterminer un profil de votre personnalité incluant un éventail d’aspects de votre vie privée, très privée, comme votre santé, votre activité sexuelle, les drogues illicites (ou non) que vous utilisez et où et comment vous vous les procurez. Cet obscur aspect de l’activité d’Apple a été révélé par un employé de la firme au sujet de l’assistant Siri et ce n’est pas une invention de la part des journalistes du Guardian qui ont reçu ces informations très confidentielles. L’assistant Siri peut être activé par erreur car la reconnaissance vocale ne peut pas être toujours parfaite. Techniquement l’analyse vocale ne dure jamais plus de 30 secondes mais cette durée est largement suffisante pour qu’une analyse postérieure permette de se faire une idée précise de l’objet d’une conversation. L’utilisateur est pourtant persuadé que l’assistant Siri n’est activé que sur sa demande. Or cette marge d’incertitude de la reconnaissance vocale, reconnue par Apple et conforme au contrat de confidentialité de l’utilisation approuvé par l’utilisateur avec ses identifiants, est utilisée à des fins pouvant être à juste titre considérées comme des intrusions dans la vie privée.

Capture d’écran 2019-08-07 à 12.05.56.png

Google avec son application Google Assistant et Amazon avec son assistant Alexa ont reconnu pouvoir « écouter » leurs clients et, dans les faits, effectivement écouter et analyser au moins 1 % des conversations. Apple prétend que ce qui se passe avec ses iPhone ou ses smartwatch (35 % du marché mondial des montres connectées) reste dans les iPhones et les smartwatch, à l’évidence ce n’est pas le cas selon les déclarations de cet employé de la firme.

Source : The Guardian du 26 juillet 2019. Pas de billet jeudi 8 août.

Le déclin de l’Empire américain ?

Capture d’écran 2019-07-29 à 21.52.49.png

Dans un de ses ouvrages publié en 2002 intitulé « Après l’Empire », Emmanuel Todd prédisait un effondrement de l’Empire américain en se référant à des données démographiques. J’ai lu beaucoup d’ouvrages de Todd mais pas celui mentionné ici et je ne me sens pas capable de le commenter. Dans le sens des thèses de Todd c’est une statistique publiée par le National Center for Health Statistics (NCHS) américain qui m’a remis en mémoire son ouvrage : la fertilité aux USA s’est considérablement effondrée ces dernières années pour se situer à un niveau dangereusement bas qui n’assure plus du tout le renouvellement des générations. Il est coutumier d’exprimer le taux de fertilité en nombre de naissances pour 1000 femmes en âge de procréer, c’est-à-dire âgées de 15 à 44 ans. Je ne suis démographe mais une arithmétique simple indique que si 1000 femmes en âge de procréer ont 2100 enfants le renouvellement de la génération est assuré. En effet, à la fin d’une génération il ne reste plus que 2100 – 1000 personnes, soit 1100, les 100 personnes supplémentaires couvrant les aléas statistiques. En moyenne le graphique indique que la fertilité américaine globale est de 59,1 enfants pour 1000 femmes.

Capture d’écran 2019-07-29 à 21.55.23.png

La chute de fertilité est spectaculaire dans la tranche d’âge 15-19 ans depuis les années 1990. Cette tendance est intimement liée aux incertitudes économiques. Les adolescents ne veulent plus avoir d’enfants parce qu’elles ont pris conscience, la plupart vivant encore dans le foyer parental, que le fait de procréer est devenu financièrement insurmontable. élever un enfant coûte 15000 dollars par an, c’est le Département de l’Agriculture qui l’affirme. Il faut ajouter à cette charge les emprunts pour faire des études supérieures, le coût des cartes de crédit, les prêts pour acheter une automobile. Tous ces facteurs dissuadent les jeunes Américains de créer un foyer. Si l’économie américaine était aussi florissante selon les affirmations aussi bien du Président que de nombreux médias cette situation ne serait pas à déplorer tant elle est précisément déplorable. Tous les jeunes américains nés depuis l’année 2000 seront une génération perdue … C’est ce que prévoyait Emmanuel Todd et les fait commencent à lui donner raison.

Source : ZeroHedge

Énergie éolienne : la vérité qui dérange !

800px-Three_3_prong_windmills.jpg

En ces temps d’intoxication idéologique (écologiste) mondiale au sujet de l’urgence de la « décarbonation » de toute notre civilisation pour sauver in extremis le climat, il est opportun de rappeler quelques points délibérément ignorés par les exploitants et passés sous silence par les constructeurs à propos de l’énergie éolienne. L’information provient d’une étude réalisée à la suite d’une commande du gouvernement de l’Etat du Vermont aux USA. Voici un résumé de ce rapport disponible auprès du site http://www.aweo.org .

Les grandes éoliennes nécessitent une grande quantité d’énergie électrique pour fonctionner. Les autres centrales électriques utilisent généralement leur propre électricité et la différence entre la quantité générée et la quantité livrée au réseau est facilement déterminée. Les centrales éoliennes utilisent toutefois l’électricité du réseau, ce qui n’est pas pris en compte dans les chiffres de production. À l’usine éolienne de Searsburg dans le Vermont, par exemple, cette « dépendance » au réseau électrique n’est pas prise en compte ni mesurée : elle est complètement inconnue. Les fabricants de grandes éoliennes comme Vestas, GE ou NEG-Micon ne précisent pas la consommation de l’électricité provenant du réseau, elle n’est pas non plus mentionnée dans les spécifications des équipements ni explicitement indiquée aux exploitants. Ci-après figure la liste exhaustive de la consommation électrique des grandes éoliennes.

1. Mécanisme de maintien du parallélisme de l’axe de l’éolienne avec la direction du vent sachant que l’ensemble carter de la turbine et les trois pales pèsent 92 tonnes pour une éolienne GE de 1,5 MW.

2. Mécanisme de contrôle du pas des pales pour que le rotor tourne à un rythme régulier.

3. Alimentation électrique des systèmes d’éclairage (signalisation pour les avions), contrôleurs, capteurs, collectes de données.

4. Chauffage des pales par temps favorable à la formation de givre en hiver : peut consommer de 10 à 20 % de la puissance nominale de la turbine.

5. Conditionnement à une température constante et déshumidification de la nacelle. Selon le fabricant danois Vestas cet équipement doit être opérationnel pendant les périodes de forte humidité, de basses températures et de vent faible.

6. Réchauffeur de l’huile de lubrification des coussinets de l’axe, pompe à huile, système de filtrage de l’huile de la boite de vitesse.

7. Frein hydraulique pour bloquer les pales par vent fort, alimentation des thyristors pour graduer la connexion et la déconnexion entre le générateur et le réseau, 1 à 2 % de l’énergie qui passe est perdue.

8. Pour les grandes éoliennes les générateurs à induction utilisés pour alimenter les bobines autour du rotor à cage asynchrone qui entoure l’arbre du générateur consomment une « grande » quantité d’énergie, quantité qui n’est jamais spécifié par les fabricants. Ce système est obligatoire pour maintenir la vitesse du rotor constante et quand le vent commence à souffler pour démarrer le rotor. (Compte tenu de leur poids les grandes éoliennes ne peuvent pas commencer à tourner de manière autonome quand le vent forcît).

9. Quand le vent n’a pas encore atteint la vitesse « nominale » (il serait plus approprié de dire optimale) le stator peut utiliser une puissance égale à 10 % de la puissance nominale de la turbine pour aider le rotor à tourner en fonctionnant dans le sens moteur.

10. Compte tenu de l’énorme poids de l’ensemble pales-rotor (les 3 pales pèsent environ 40 tonnes à elles seules) la rotation par vent faible est parfois maintenue pour donner l’illusion que le parc éolien produit de l’électricité ( ! ) en particulier lors des visites du site ou pour procéder à des mesures de bruit.

11. Par vent faible ou nul la plupart des éoliennes de grande taille doivent être maintenues en mouvement de rotation pour éviter le gauchissement de l’axe supportant l’ensemble pales-rotor.

La question qui se pose au terme de cette énumération à la Prévert est que l’on peut se demander à juste titre si la plupart du temps les éoliennes ne consomment pas déjà l’équivalent de plus de 50 % de l’électricité qu’elles génèrent effectivement quand elles sont en fonctionnement. De plus, sachant qu’un parc éolien produit bon an mal an à peine 25 % de la puissance nominale installée on peut donc se demander, également à juste titre, si les éoliennes ne fonctionnent pas tout simplement virtuellement en consommant (gratuitement !) deux fois plus d’énergie qu’elles n’en produisent. C’est une situation paraissant improbable mais les industriels de l’éolien n’ont jamais publié de données à ce sujet pouvant prouver le contraire car la puissance entrante n’est jamais enregistrée. En conclusion l’énergie éolienne « c’est du vent » !

La forêt amazonienne et le climat : encore une « fake-news ».

1024px-Panorama_canaviais_interior_Sao_Paulo_2006_06.jpg

Chaque minute l’équivalent de la surface de 3 terrains de football de forêt amazonienne disparait pour laisser place à des cultures agricoles à haut rendement comme le palmier à huile, la canne à sucre, le sorgho ou encore, à l’extrême limite, l’élevage. Le nouveau dirigeant du Brésil a compris que la forêt amazonienne était un atout immense pour le développement de l’économie du pays, mais à quel prix ?

Il est évident que l’attitude des dirigeant brésiliens ayant donné leur feu vert pour une déforestation intensive émeut la communauté mondiale bien-pensante. Celle-ci met en avant les arguments classiques : mépris de la biodiversité, destruction du « poumon » de la planète, véritable génocide des populations amérindiennes natives, conséquences inimaginables sur le climat global, augmentation catastrophique du CO2 atmosphérique, disparition de centaines de milliers d’espèces vivantes encore inconnues, etc, etc …

Mais qu’en est-il au juste ? Il est nécessaire de garder l’esprit froid et si possible clair pour analyser cette situation devant laquelle Bolsonaro a mis le monde entier. Je pense que mes lecteurs vont croire que j’ai l’esprit dérangé en lisant les lignes qui suivent mais j’insiste même si je vais heurter les âmes sensibles. Le bilan carbone de la forêt amazonienne est nul. En effet la biomasse totale de ce système, considérons ici les végétaux, est constante, il n’y a donc pas de fixation nette de carbone. Si tel n’était pas le cas il y aurait dans toute l’Amazonie des centaines de mètres de végétaux accumulés à la surface de cette partie de la Terre qui finiraient pas se transformer en une sorte de tourbe ou à l’extrême limite en lignite. Un enfant de 7 ans pourrait comprendre cela. Toute cette biomasse végétale disparaît donc au fur et à mesure qu’elle se forme. Où va-t-elle ? Elle se transforme lentement mais sûrement en CO2 et en méthane.

Alors, deuxième point, il est soigneusement fait abstraction de la production massive de méthane provenant des fermentations de toute cette matière organique sur le sol amazonien. Et si on est un adepte convaincu de la théorie de l’effet de serre intense du méthane alors en toute logique raser trois terrains de football de forêt chaque minute pour créer des cultures vivrières à haut rendement devrait être considéré comme bénéfique pour le climat. Un terrain de football mesure 7500 m2 arrondissons donc à un hectare cette unité de mesure pour simplifier le raisonnement. Combien de tonnes de bois un hectare de forêt tropicale humide peut-il produire chaque année ? La réponse est simple : très peu, peut-être une tonne, deux tonnes au mieux – chaque année – si on gère cet hectare de forêt de telle façon que la production annuelle soit constante dans la durée et que le bois extrait soit renouvelé également chaque année. Encore faudra-t-il que le bois soit exploitable, c’est-à-dire qu’il ait une valeur commerciale.

Par contre si on plante des palmiers à huile, en quelques années ces arbres vont produire, avec un minimum d’intrants, 5 à 6 tonnes d’huile par hectare tous les ans. On ne peut qu’en déduire que le bilan carbone est alors très positif, peu importe quel sera ensuite l’usage de cette huile et où elle sera utilisée. Pour la canne à sucre – le Brésil est le premier producteur de sucre de canne du monde – la fixation de carbone est encore plus incroyable (la canne est une plante « C4 ») puisque chaque hectare produit environ 60 tonnes de canne. Cette quantité de canne, toujours par hectare, produit 8 tonnes de sucre ou par fermentation 4,2 tonnes d’éthanol. On retrouve donc à peu près le rendement du palmier à huile si ces deux cultures sont destinées à produire du carburant dit « vert » et par définition renouvelable chaque année. Seules certaines céréales comme le blé, dans des conditions de culture optimales, par exemple dans la plaine de Beauce en France, atteignent des rendements comparables à ceux de la canne à sucre en termes de fixation de carbone. La production de blé dans ces régions très favorables est de l’ordre de 9 tonnes par hectare.

Donc, procéder à une déforestation d’au moins une partie de l’Amazonie ne changera rien au bilan carbone de la Terre, ne modifiera en rien la teneur en oxygène de l’atmosphère et les conséquences sur le climat global de la Terre seront négligeables voire inexistantes sinon bénéfiques. Ce dont on est en droit de se soucier est le désastre des écosystèmes uniques que forme la forêt amazonienne. Il est donc justifié de se préoccuper de cet aspect de la déforestation de la forêt amazonienne mais certainement pas de ses conséquences sur le climat.

Le combat des protecteurs du climat de « Gaïa » contre la politique agricole du Président Bolsonaro est donc sans signification et n’a pas lieu d’être, ceci d’autant plus que de nombreuses régions de cette forêt sont impropres à la culture car elles sont inondables ou souvent inaccessibles en raison de la présence d’eau, elles ne seront jamais affectée par ce programme d’extension de l’agriculture brésilienne … encore une « fake-news » !

Illustration : champ de canne au Brésil.

Actualité : en France les « Gilets jaunes » décrochent le portrait du Président dans les mairies

Capture d’écran 2019-08-02 à 19.22.22.png

Je ne comprends plus l’attitude des « Gilets jaunes » pour lesquels j’avais éprouvé quelque sympathie au tout début de leur mouvement de protestation contre l’augmentation des taxes sur les carburants dont en particulier le diesel. Beaucoup d’entre eux vivant dans la France périphérique sont contraints de par leur localisation d’utiliser un véhicule, souvent ancien donc polluant et ne répondant plus aux normes actuelles, souvent aussi avec un moteur diesel, doublement polluant. Cette taxe fut l’étincelle qui initia le mouvement. Il s’agissait d’une taxe permettant de contribuer au « sauvetage du climat », c’est du moins ce que j’ai retenu des quelques informations glanées ici ou là.

Or par un curieux revirement de situation ces même gilets jaunes s’en prennent maintenant au portrait du Président se trouvant dans les mairies parce que le gouvernement ne « fait pas assez pour le climat » ! Je rêve ! L’un de ces protestataires a déclaré (je cite le journaliste du Guardian) :  » l’espace qui reste sur le mur après avoir ôté le portrait symbolise le vide de la politique gouvernementale en ce qui concerne l’urgence climatique « . Ou bien les gilets jaunes n’ont rien compris à ce qui se prépare au sujet de cette affaire de climat (lire le prochain billet très documenté sur ce blog) ou alors ils sont parasités par des écologistes qui n’ont pas d’autre projet que de collaborer avec le gouvernement afin que celui-ci puisse augmenter les taxes en tous genres pour sauver le climat.

Capture d’écran 2019-08-02 à 19.21.47.png

Constatant une attitude aussi paradoxale de la part de ce mouvement je pense qu’il se ridiculise et son avenir est de plus en plus incertain. Les gilets jaunes devraient au contraire mettre en avant l’argument consistant à souligner que la France est le pays développé le moins polluant en terme de carbone pour sa production d’électricité, mais ils sont peut-être aussi opposés à l’énergie nucléaire, déjà pollués par la propagande écologiste, qui sait ?

Capture d’écran 2019-08-02 à 18.56.48.png

Source et illustrations : The Guardian

Note à l’intention de mes fidèles lecteurs. L’une des illustrations est l’entrée de la maire du deuxième arrondissement de Lyon. C’est dans cet endroit que j’ai épousé la mère de mes enfants il y a un demi-siècle à quelques semaines près. Durant ce demi-siècle je n’ai jamais noté un quelconque changement significatif du climat qui a toujours fluctué, je veux dire les températures, et contrairement à ce qu’une majorité de personnes prétendent la vie est beaucoup plus agréable aujourd’hui qu’il y a 50 ans … Que deviendrions-nous sans téléphone portable et sans ordinateur, comment ferions-nous s’il n’y avait pas d’immenses centres commerciaux où on trouve tout ce que l’on veut ? Tous ces progrès n’ont pu se réaliser que grâce à une énergie bon marché, surtout en France (je parle ici de l’électricité), disponible 24 heure sur 24, une garantie qui permit à la France d’assister à un développement de son industrie que beaucoup d’autres pays lui enviaient à l’époque. Aujourd’hui les écologistes, qui ont à l’évidence noyauté le mouvement des gilets jaunes, un petit espoir pour la démocratie « made in France », veulent que l’on retourne vers les standards de vie du XVIIIe siècle. Je suis attristé par ce revirement inattendu du mouvement des gilets jaunes qui ne laisse plus aucun espoir aux générations à venir …

Réchauffement climatique d’origine humaine : une pure fiction selon deux équipes de géophysiciens !

À 48 heures d’intervalle, deux équipes de géophysiciens, l’une finlandaise et l’autre japonaise, passent à la contre-attaque et dénoncent les mensonges répétés de l’IPCC. La question qu’il est opportun de se poser avant d’entrer dans les détails de ces publications est la suivante : l’IPCC a-t-il été mandaté pour ne considérer que l’effet du gaz carbonique sur la sensibilité du climat à l’exclusion de tout autre paramètre ? Si la réponse est oui, alors qui est le mandataire (ou les mandataires) et pour quelles raisons ? Si la réponse est non, alors je n’aimerais pas me trouver, en tant qu’ancien scientifique, dans la peau d’un quelconque des membres de ce groupement de fonctionnaires internationaux qui accumule les mensonges « par omission » depuis sa création, attitude qui l’oblige à inventer encore plus de mensonges.

En effet les variations du climat terrestre ne dépendent pas que des variations de la teneur en gaz carbonique dans l’atmosphère, ce que ces deux équipes de géophysiciens démontrent clairement. L’IPCC a « oublié » (ou omis) de mentionner les variations de l’activité solaire. L’IPCC au aussi – et surtout – oublié la présence de vapeur d’eau et de nuages dans l’atmosphère. Personne ne peut nier qu’il y a des nuages dans le ciel, à moins d’aller chercher un bédouin au milieu du désert d’Arabie ou au milieu du Sahara qui témoignera que : « oui il n’y a jamais de nuages ici », alors ces quelques personnes confirmeront le fait que l’IPCC n’a jamais pris en compte ce paramètre central dans l’évolution du climat. Ces prétendus scientifiques de haut niveau qui osent donner des conseils aux gouvernements de tous les pays du monde, tous les membres des Nations-Unies, ont avoué, la bouche en coeur, que modéliser la formation et les mouvements des nuages, c’était trop compliqué, alors ils ne l’ont pas envisagé ! On croit rêver …

Entrons d’abord dans le vif du contenu du travail publié par des géophysiciens de l’Université de Kobe (doi : 10.1038/s41598-019-45466-8). Ces universitaires ont reconstruit les changements climatiques concernant le régime des moussons durant les périodes de la fin du Pléistocène et de l’Holocène en s’intéressant aux plateaux du nord de la Chine recouverts de loess, ces poussières apportées par les vents depuis les déserts, et où allaient ces poussières portées par les vents lors des moussons. Il se sont rendu compte que, dans le passé, quand le champ magnétique terrestre faiblissait puis s’inversait, le régime des moussons d’hiver, comme des moussons d’été, était profondément affecté. Durant le changement de direction du dipôle magnétique de la Terre, changement qui survient tous les 400000 ans environ, les variations concomitantes des régimes de mousson qui en résultaient étaient dues aux variations de la couverture nuageuse – sans nuages, pas de mousson – et que cette variation était directement liée à l’intensité du rayonnement cosmique atteignant les plus basses couches de l’atmosphère. Les travaux de cette équipe ont été focalisés sur les variations du régime des moussons telles qu’elles ont pu être évaluées par des carottages des sédiments dans les baies d’Osaka et de Tokyo. La conclusion de ces travaux est sans appel : lors du changement de polarité du champ magnétique terrestre l’intensité du champ magnétique diminue dramatiquement pour atteindre une valeur d’environ 25 % seulement de celle normalement relevée au cours d’un cycle normal de ce champ magnétique terrestre. Il en résulte une formation beaucoup plus fournie de nuages provoquée par le conflit normalement existant entre l’air froid sibérien entrant dans la région de l’archipel nippon qui se confronte avec l’air chaud et humide océanique provenant du sud de l’archipel. Cette situation a pour effet de favoriser un effet d’ombrelle nuageuse plus important que la normale en raison de l’intensité du bombardement cosmique, le champ magnétique terrestre n’étant plus assez efficace pour atténuer l’effet de ce bombardement cosmique sur la formation de nuages.

Capture d’écran 2019-07-14 à 19.22.49.png

On peut constater qu’il s’agit d’une vérification indirecte des hypothèses formulées par Svensmark sur l’influence combinée des champs magnétiques solaire et terrestre sur la protection de la Terre vis-à-vis des rayons cosmiques et de leur effet sur le climat. L’IPCC n’a jamais mentionné ce type de paramètre dans leurs nombreux modèles d’évolution de la température moyenne de la Terre, et pour cause, c’est tout aussi compliqué à modéliser que les nuages … Cette « ombrelle nuageuse » comme les géophysiciens japonais l’ont appelée a eu pour résultat une série d’épisodes de refroidissement du climat sur la période 1 million d’années – 200000 ans avant l’ère commune qui a fait l’objet de ces études.

Quelle horreur ! Remonter des centaines de milliers d’années en arrière pour expliquer le climat terrestre actuel qui préoccupe le monde entier doit paraître une hérésie profonde car la science climatique infuse est exclusivement du domaine de l’IPCC puisque pour cet organisme il suffit de « modéliser » pour savoir quel temps il fera en 2100. Et il faut croire cet organisme de fonctionnaires internationaux richement rémunérés par les impôts des contribuables du monde entier, nous n’avons plus le choix, c’est ce que ne cessent de répéter inlassablement tous les gouvernements des pays développés, dont en particulier les ministres des « transitions énergétiques », naturellement tous encartés aux partis verts locaux qui ont voué leur carrière politique à la cause climatique, quelques que soient leurs agissements privés par ailleurs : ils sont les seuls à détenir le savoir, point barre.

Et pourtant ces travaux ont mis indirectement en évidence le fait que les nuages, indépendamment de la cause de leur abondance relative au cours du temps, sont le paramètre naturel majeur de la sensibilité du climat comme cela va être exposé ci-après.

Venons-en donc maintenant aux travaux de Kauppinen et Malmi, deux Docteurs en géophysique de l’Université de Turku en Finlande. Les choses se compliquent sérieusement pour l’IPCC obsédé depuis sa création par le CO2. Le titre de leur publication est évocateur sinon provocateur : « Pas d’évidence expérimentale en faveur d’un changement du climat d’origine humaine » (arXiv : 1907.00165v1 [physics.ao-ph] 29 juin 2019, via Cornell University). Il existe une très large incertitude dans la communauté scientifique en ce qui concerne la sensibilité du climat, c’est-à-dire la résultante des divers facteurs affectant le climat, sensibilité qui se mesure en degrés Celsius. Certains modèles affirment que cette sensibilité est proche de zéro alors que d’autres modèles prédisent des augmentations de température pouvant atteindre 9 degrés C en cas de doublement de la teneur atmosphérique en CO2. La plupart de ces modèles utilisent une théorie dite « modèle de circulation générale » pour leurs estimations. Les modèles considérés comme plausibles par l’IPCC prévoient des sensibilités entre 2 et 5°C mais il y en a d’autres qui n’arrivent pas à dégager une quelconque sensibilité :

Capture d’écran 2019-07-13 à 18.10.21.png

Pour se faire une opinion de ce qui se passe dans la réalité il est nécessaire pour analyser l’anomalie de température par rapport à une moyenne, ce qu’indiquent les modèles, de faire la distinction entre les facteurs naturels et les gaz à effet de serre. Le rapport AR5 de l’IPCC stipulait que les facteurs naturels ne pouvaient pas expliquer l’évolution récente des températures comme l’indiquait en résumé la figure ci-dessous où les observations sont matérialisées par un trait noir, le facteur anthropogénique avec ses incertitudes en rose et les « facteurs naturels en bleu :

Capture d’écran 2019-07-16 à 18.50.49.png

L’un des facteurs naturels influant sur la température moyenne est la couverture nuageuse qui est disponible à partir des observations satellitaires. En rassemblant sur un même graphique les données relatives aux températures moyennes observées, plutôt leur écart par rapport à une moyenne fixée à 15°C, et les variations de la couverture nuageuse exprimées par rapport à une superficie égale à 26 % de la surface terrestre, on peut constater de cette représentation que quand il y a beaucoup de nuages, les températures ont tendance à diminuer et inversement quand cette même couverture nuageuse diminue l’écart des températures par rapport à la moyenne augmente positivement. On ne peut qu’en déduire que les nuages bloquent l’énergie solaire qui atteint moins efficacement la surface du sol ou des océans et par conséquent la température qui y est mesurée diminue :

Capture d’écran 2019-07-13 à 17.20.10.png

Dans cette figure le zéro de l’ordonnée pour les températures est 15°C et le Δc est la fraction exprimée en pourcentage correspondant au changement de la couverture nuageuse par rapport à la moyenne globale de 26 % de couverture nuageuse basse sur l’ensemble de la surface de la Terre.

Or, les modèles utilisés – forcing naturel seulement ou forcing naturel + forcing anthropogénique – devraient en toute logique se superposer autour de la courbe noire des observations si le forcing naturel considéré dans ces modèles prenait correctement en compte la contribution des nuages bas (voir la figure précédente figurant dans le rapport AR5 de l’IPCC. Force est de constater qu’il n’en est rien.

Mais si on superpose l’anomalie des températures observées entre l’été 1983 et l’été 2008 avec les observations globales de la couverture nuageuse, on va remarquer, bien qu’il y ait un « bruit de fond » important, que si on multiplie les données de couverture nuageuse exprimées en pourcentage de la moyenne sur cette période, un nombre sans dimension physique, par « moins » 0,11°C / % (-0,11) on retrouve grosso modo la même courbe que celle décrivant l’anomalie des températures :

Capture d’écran 2019-07-13 à 17.21.19.png

Les valeurs « zéro » pour chacune de ces grandeurs ΔT (en degrés) et Δc ( en %) sont respectivement, il est important de le rappeler encore une fois, de 15°C et 26 % pour les deux graphiques. Ce facteur multiplicatif -0,11 introduit une valeur physique, des degrés centigrades, à la couverture nuageuse exprimée en pourcentage qui peut alors être corrélée à la sensibilité climatique elle-même exprimée en degrés C.

Nous allons découvrir que ce facteur multiplicatif de « moins 0,11 °C » n’est pas sorti comme par magie d’un chapeau. Force est de constater qu’il existe une remarquable concordance entre ces deux courbes. Qu’est-ce que cela signifie ? Les anomalies de température telles qu’indiquées en rouge dans la première figure tiennent compte des facteurs naturels et de l’effet des gaz à effet de serre sur la sensibilité climatique, alors que dans cette première figure la courbe bleue n’indiquait que le facteur naturel qu’est la couverture nuageuse. Il est opportun de rappeler ici que cette couverture nuageuse est mesurée 24/24 heures à l’aide de radars installés sur des satellites et que les températures sont appréciées par thermométrie infra-rouge également avec l’aide de satellites. Cette concordance signifie tout simplement qu’il n’y a pas lieu de considérer un quelconque effet des gaz dits à effet de serre puisque températures et couverture nuageuse sont directement liées !

Les contradicteurs pourront toujours arguer du fait que le laps de temps indiqué dans ce travail est trop court. Il a pourtant été tenu compte des données satellitaires homogènes disponibles. Toute disparité dans ces observations aurait nécessité des corrections pouvant prêter à contestation. D’autres remarques seraient du genre : mais puisque l’IPCC affirme que l’évolution des températures entre 1983 et 2008 est uniquement explicable par l’augmentation de la teneur en CO2 atmosphérique de 343 à 386 ppm, donc c’est vrai, point final. Effectivement, la température moyenne globale, une notion, certes, contestable sur le plan strictement physique, a augmenté durant cette période de 0,4 °C. Conformément à la théorie développée par ces mêmes auteurs ( arXiv:1812.11547v1, décembre 2018 via Cornell University) et le résultat illustré par les deux courbes ci-dessus directement déduit de cette théorie, si la concentration en CO2 augmente de Co à C et double ( C = 2Co) le ΔT obéit à la loi suivante :

Capture d’écran 2019-07-13 à 17.02.47.png

où ΔT2CO2 est le changement global de la température et Δc le changement de la couverture nuageuse. Le premier terme de l’équation décrit l’effet du CO2 sur la sensibilité du climat et le second terme l’effet naturel – les nuages – indépendamment du CO2. En replaçant ΔT2CO2 par la valeur de la sensibilité du climat au CO2 qui est de 0,24 °C alors selon le premier terme de l’équation ci-dessus la contribution du CO2 n’est que de 0,04 °C. C’est la raison pour laquelle cette minuscule augmentation est invisible dans le deuxième graphe ci-dessus. Ce même calcul peut être transposé en tenant compte non plus de la couverture nuageuse de basse altitude mais de l’humidité ou teneur en vapeur d’eau de l’atmosphère, une grandeur également mesurable à l’aide de satellites et les auteurs sont arrivés aux mêmes conclusions.

Ces résultats conduisent donc à la révélation surprenante qui est la surévaluation de la sensibilité climatique au CO2 d’un facteur 10 par l’IPCC car la rétro-action négative des nuages sur la température a tout simplement été ignorée. De plus la contribution de l’activité humaine à l’accroissement du CO2 atmosphérique total étant de l’ordre de 4 % alors on ne peut que conclure que le réchauffement climatique d’origine humaine n’existe tout simplement pas ! Durant les dernières 100 années la température globale moyenne a augmenté de 0,1 °C et la contribution humaine, c’est-à-dire l’augmentation du CO2 atmosphérique n’a été que de 0,01 °C dans la sensibilité du climat. La couverture nuageuse contrôle donc principalement la température.

Le fait que l’équipe japonaise ait mis en évidence un rôle majeur des rayons cosmiques dans la formation de la couverture nuageuse constitue une explication d’une grande importance pour la compréhension des changements du climat, passés mais aussi à venir. Oublions l’inversion des pôles magnétiques terrestres qui est un processus s’étendant sur des centaines de milliers d’années. Il faut rappeler que sur une échelle de temps de l’ordre de quelques dizaines d’années le facteur naturel ayant une influence prépondérante sur les variations de la couche nuageuse est l’activité magnétique solaire. La Terre évolue dans le champ magnétique solaire et le rôle protecteur de ce champ magnétique contre les rayons cosmiques dépend directement de son intensité (voir note en fin de billet). La faiblesse du cycle solaire (#24) finissant et les prévisions plutôt pessimistes pour le cycle solaire suivant (#25) ne sont pas encourageantes pour la « sensibilité climatique », en d’autres termes pour la température moyenne qui sera ressentie durant les années à venir.

Notes. Le facteur multiplicatif -0,11 n’est pas une vue de l’esprit mais le résultat d’une longue étude qui a été publiée en 2018 et mentionnée ci-dessus. Je suggère à ceux de mes lecteurs qui voudraient contester le contenu non pas de mon billet mais celui des travaux de J. Kauppinen et P. Malmi de lire les deux articles cités en référence ou encore de s’adresser directement à ces auteurs dont voici l’ e-mail : jyrkau@utu.fi

Note. Le champ magnétique solaire est beaucoup plus puissant et étendu que celui de la Terre. Ce champ dévie les rayons cosmiques, j’ai écrit de nombreux billets à ce sujet. Le champ magnétique terrestre dévie également certains rayons cosmiques mais son rôle majeur dans la protection de la vie sur la Terre est de piéger les particules émises par le Soleil qui constituent le vent solaire.