Brève. La grippe « coronavirale » est-elle la plus dangereuse depuis celle de 1919 ?

Prenons le cas des USA pour établir des comparaisons, certes contestables, qui indiquent que le nouveau virus SARS-Covid-19 n’est pas plus dangereux que le virus Influenza A H2N2 qui sévit en 1957-1958 dans le monde. Il y eut 116000 morts aux Etats-Unis pour une population de 180 millions d’habitants. Ce 29 juin 2020 le nombre de morts « confirmés » Covid-19 positifs, donc à l’exclusion de tout autre virus grippal, s’élevait à 129000 pour une population de 330 millions d’habitants.

Il suffit d’appliquer une règle de trois, comme j’aime le faire, pour en déduire que l’épidémie de 1957-1958, en tenant compte de l’augmentation de la population, équivaudrait aujourd’hui à 213000 morts. Cette grippe asiatique tua sans discernement autant de personnes de 15 à 45 ans que de « vieux » de plus de 70 ans.

Sur la base de ce raisonnement un peu spécieux je me permets donc de dire aux Américains qui veulent sans cesse être les premiers du monde dans tous les domaines qu’ils fassent encore quelques progrès pour atteindre 210000 morts avec ce coronavirus …

Je rappellerai encore ici que la grippe asiatique tua 40000 personnes en France et que le nouveau virus « chinois » n’y a pas provoqué plus de 30000 morts malgré la gestion surréaliste de cette épidémie par le gouvernement français. En corrigeant l’augmentation de la population française on arrive à la figure suivante : 40000 x (66/45) = 58600, une preuve supplémentaire que cette grippe spéciale n’avait vraiment rien d’exceptionnel.

Il reste cependant une inconnue soigneusement passée sous silence : Qu’en est-il des dégâts sanitaires de la grippe saisonnière autre que coronavirale qui n’a pas pu disparaître comme par magie et laisser la place au virus couronné ? Dix-mille, quinze-mille morts comme chaque année ?

Brève. Les électeurs français sont-ils flegmatiques à dessein ?

Alors que des milliers d’analystes politiques se plaignent de la non-représentativité du monde politique et que les citoyens revendiquent des référendums d’initiative populaire et des décisions politiques plus proches d’eux (les citoyens), ces derniers, quand il s’agit d’aller aux urnes électorales, ne se déplacent plus. Ces dernières élections municipales sont la caricature de la démocratie avec un taux d’abstention indécent. Et ces électeurs vont-ils ensuite se plaindre ? Ils n’en on tout simplement pas le droit puisqu’ils ne sont pas allé voter.

Il y a vraiment un côté illogique dans cette histoire. Les politiciens en place ne disent rien puisque cette situation les arrange et ils peuvent faire leurs petites magouilles de leur côté bien tranquillement sachant que ceux qui se déplacent pour aller voter sont des militants décidés à changer le système à leur profit. Il suffit de constater l’émergence du parti vert. Malheur à ces électeurs qui n’ont pas compris que la France s’achemine vers une dictature verte. Quand ils auront compris leur erreur il sera trop tard.

Les « silencieux », les abstentionnistes, se rendront aussi à cette évidence car ils subiront eux aussi cette dictature quand ils constateront que leurs factures d’électricité et de gaz doubleront, qu’une nouvelle taxe sur les carburants sera mise en place, qu’ils ne pourront plus utiliser leur vieille voiture diesel, et que sais-je encore, pour financer la protection du climat et de la biodiversité en hérissant la douce France de moulins à vent made in PRC. Une utopie qui sera très douloureuse !

Alors pourquoi ne pas rendre le vote obligatoire comme en Belgique ou au Japon. S’abstenir aurait de graves conséquences comme ne plus avoir droit à certaines prestations sociales, c’est le cas en Belgique qui est, de fait, un pays beaucoup plus démocratique que la France. Pour les Suisses, aller voter est un devoir citoyen et personne ne se pose la question de savoir si c’est utile ou non.

Conclusion de cette diatribe : les électeurs françaises ont creusé eux-mêmes la tombe de la démocratie française en considérant que leur suffrage était inutile, tant pis pour eux …

Brève. La France et ses angoisses …

Je discutais avec mon fils il y a quelques heures et il m’entretenait au sujet de l’animalisme. Je lui fis remarquer qu’un jour, lorsque les humains auront dicté des privilèges et des droits aux animaux il suffira de franchir un tout petit pas pour que les êtres humains deviennent eux-mêmes réduits à l’état d’animaux par un gouvernement mondial qui ne dit pas encore son nom.

George Orwell, dans son roman « La Ferme des Animaux », décrit ce qui attend l’humanité toute entière ou du moins les pays les plus poreux aux idéologies délirantes, c’est-à-dire les pays occidentaux : Europe et Amérique du Nord. L’animalisme, mouvement qui prône un régime végétarien et la remise en liberté de tous les animaux domestiqués par l’homme, est-il présent dans le groupe de 150 Français soigneusement choisis par Emmanuel Macron pour donner un vernis démocratique à des décisions totalitaires qui vont appauvrir l’ensemble de la population ? Je parie que oui. Les mouvements végans, LGBTQrstuv …, racialistes, écologistes, environnementalistes, climato-angoissés, anti-progrès technique, etc… font partie de cette mouvance intellectuelle qui s’est accoutrée de fausse science pour promouvoir leurs idées et qui veut l’imposer aux Français.

Je disais à mon fils qu’un jour ou l’autre le peuple, lassé d’être pris pour des animaux tout juste bons à payer des impôts, se révoltera et cette révolte est imminente et sera violente. Affaiblis par les mesures moyenâgeuses stupides et inefficaces prises pour juguler la grippe coronavirale qui n’aura tué qu’un tout petit peu plus que la grippe asiatique – et encore, ça se discute – les sans-dents, les petits des provinces asservis par l’administration tentaculaire centrale se révolteront. Non contents d’avoir organisé la destruction de l’économie du pays en prenant pour prétexte le coronavirus ces élites politiques, économiques et administratives organisent avec ce groupe de Français « choisis au hasard » le futur le plus inimaginable qui puisse être, un écroulement de la vieille civilisation française. Lorsque le peuple aura faim – ça ne saurait tarder – alors il deviendra violent et rien ni personne ne pourra lui resister.

Une image simpliste de l’évolution du climat basée sur un seul paramètre peut conduire à des conclusions erronées.

Lindzen©Francisco Guasco-EFE-MAXPPP copie.jpg

Par Richard S. Lindzen, Professeur émérite à l’Alfred P. Sloan Department of Atmospheric Sciences, MIT, Cambridge, Massachusetts

Avant-propos de votre serviteur. J’ai osé imposer à mes lecteurs la laborieuse lecture d’un document scientifique apportant des preuves irréfutables de l’imposture qu’utilisent les pays occidentaux pour justifier des décisions ruineuses pour leur économie afin de sauver le climat. Cette année 2020 sera encore déclarée l’année la plus chaude après le début de l’ère industrielle et c’est tout à fait vrai puisque depuis 1998 la température moyenne globale n’a pas évolué, donc les années à venir resteront les « plus chaudes » jusqu’au refroidissement prévu par les spécialistes dans le domaine du climat. Lindzen démonte la théorie du réchauffement du climat adossée sur un seul facteur, le CO2. Si j’ai pris la peine de traduire son article c’est simplement parce qu’il est compréhensible et qu’il doit être lu et dispersé autour de vous car il est solide et incontestable. Si l’un de mes lecteurs désire contacter Richard Lindzen voici son adresse électronique : rlindzen@mit.edu . Bonne lecture.

Résumé. La nature du système climatique est passée en revue. Ensuite, l’histoire des approches scientifiques des principaux problèmes climatiques est examinée, notant que la centralité de la contribution du dioxyde de carbone est relativement récente et probablement inappropriée pour une grande partie de l’histoire climatique de la Terre. La faiblesse de caractériser le comportement climatique global en utilisant un seul processus physique, le forçage radiatif moyenné à l’échelle mondiale, est illustrée en considérant le rôle d’un processus également bien connu, le transport thermique méridional par des processus hydrodynamiques qui, en changeant la différence de température entre l’Equateur et les pôles, a également un impact sur la température moyenne mondiale.

Introduction. Le tableau actuel de la question du réchauffement climatique présenté au grand public repose sur le fait que le CO2 absorbe et émet dans l’infrarouge, et que son ajout dans l’atmosphère doit donc conduire à un certain réchauffement. En effet, la terre se réchauffe depuis la fin du petit âge glaciaire, et le niveau de CO2 a en effet augmenté, mais cela ne constitue guère une preuve. Cependant, le fait que des modèles informatiques à grande échelle puissent être réalisés pour reproduire le réchauffement avec l’augmentation du CO2 est considéré comme une preuve solide. Au-delà de cela, l’affirmation selon laquelle tout réchauffement indique une catastrophe, surtout si elle est supérieure à l’objectif défini politiquement de + 1,5 °C (dont plus de 1 °C a déjà eu lieu), et exige des réductions importantes de l’utilisation des combustibles fossiles [16] (cf. références en fin de traduction).

Bien qu’il soit souvent noté que le réchauffement par effet de serre est connu depuis longtemps dans la littérature sur le climat, il s’avère que cela n’était généralement pas considéré comme une cause majeure du changement climatique avant les années 1980. Dans cet article, nous présentons une description du système climatique afin de replacer le rôle du réchauffement par effet de serre dans un contexte approprié. Nous examinons ensuite comment le climat était perçu dans la littérature antérieure (ainsi que certains travaux plus récents), et comparons cela avec l’approche actuelle. Il est démontré qu’il existe des raisons substantielles de considérer la présente explication publiquement acceptée comme improbable.

Le système climatique. Ce qui suit est une description totalement non controversée du système climatique.

i. Le cœur du système que nous examinons consiste en deux fluides turbulents, l’atmosphère et les océans, interagissant l’un avec l’autre.

ii. Les deux fluides se trouvent sur une planète en rotation qui est chauffée de manière différentielle par le soleil.

Cela se réfère simplement au fait que le rayonnement solaire est directement incident à l’équateur alors qu’il effleure à peine la terre aux pôles. Le chauffage inégal entraîne la circulation de l’atmosphère et ces mouvements sont responsables du transport méridional de la chaleur.

iii. La composante océanique a des systèmes de circulation avec des échelles de temps allant des années aux millénaires, et ces systèmes transportent la chaleur vers et depuis la surface.

Le forçage de l’océan est complexe. En plus du chauffage différentiel, il y a le forçage par le vent et les injections d’eau douce. En raison de la densité plus élevée de l’eau par rapport à l’air, les circulations sont beaucoup plus lentes dans l’océan et les circulations peuvent avoir de très longues échelles de temps. Le fait que ces circulations transportent la chaleur vers et depuis la surface signifie que la surface n’est jamais en équilibre avec l’espace.

iv. En plus des océans, l’atmosphère interagit avec une surface terrestre extrêmement irrégulière. Le flux d’air est fortement déformé par le passage sur les principales hétérogénéités topographiques et thermiques de la surface qui forment des ondulations à l’échelle planétaire et celles-ci impactent fortement les variations régionales lointaines du climat qui, il s’avère, sont généralement insuffisamment décrites dans les modèles [3].

v. Un constituant essentiel du composant atmosphérique est l’eau dans les phases liquide, solide et vapeur, et les changements de phase ont de vastes ramifications énergétiques. Chacune de ces phases physiques de l’eau a un rôle également extrêmement important.

Le dégagement de chaleur lorsque la vapeur d’eau se condense conduit à la formation de nuages d’orage (appelés cumulonimbus) et ce processus est important. De plus, les nuages sont constitués d’eau sous forme de fines gouttelettes et de glace sous forme de fins cristaux. Normalement, ces fines gouttelettes et cristaux sont suspendus par l’augmentation des courants d’air, mais lorsque ceux-ci deviennent suffisamment gros, ils tombent dans l’air ascendant sous forme de pluie et de neige. Non seulement les énergies impliquées dans les transformations de phase sont importantes, mais le fait est que la vapeur d’eau et les nuages (à base de glace et d’eau) affectent fortement le rayonnement. Les deux substances à effet de serre les plus importantes sont de loin la vapeur d’eau et les nuages. Les nuages sont également d’importants réflecteurs de la lumière solaire. Ces questions sont examinées en détail dans les rapports du GIEC WG1, dont chacun reconnaît ouvertement les nuages comme sources principales d’incertitude dans la modélisation du climat.

vi. Le bilan énergétique de ce système implique l’absorption et la réémission d’environ 240 W / m2. Le doublement du CO2 entraîne une perturbation un peu inférieure à 2% de ce bilan (4 W / m2) [33]. Il en va de même pour les changements dans les nuages et autres fonctionnalités, et ces changements sont courants.

La Terre reçoit environ 340 W / m2 du soleil, mais environ 100 W / m2 est simplement renvoyé dans l’espace à la fois par la surface de la Terre et, plus important encore, par les nuages. Cela laisserait environ 240 W / m2 que la terre devrait réémettre pour établir l’équilibre. Le soleil rayonne dans la partie visible du spectre de rayonnement parce que sa température est d’environ 6000 °K. Si la Terre n’avait pas du tout d’atmosphère (mais à des fins d’argument, si elle réfléchissait toujours 100 W / m2), elle devrait rayonner à une température d’environ 255 °K (- 18 °C), et, à cette température, le rayonnement se trouve principalement dans l’infrarouge.

Bien sûr, la Terre a une atmosphère et des océans, ce qui introduit une multitude de complications. L’évaporation des océans produit de la vapeur d’eau dans l’atmosphère, et la vapeur d’eau absorbe très fortement et émet des rayonnements dans l’infrarouge. La vapeur d’eau empêche essentiellement le rayonnement infrarouge de quitter la surface de la Terre, provoquant le réchauffement de cette surface et (par conduction) de l’air adjacent à la surface, et la convection s’installe. La combinaison des processus radiatifs et convectifs entraîne une diminution de la température avec la hauteur. Pour compliquer les choses, la quantité de vapeur d’eau que l’air peut contenir diminue rapidement à mesure que la température diminue. Au-dessus d’une certaine hauteur, il reste si peu de vapeur d’eau que le rayonnement à ce niveau peut maintenant s’échapper dans l’espace. C’est à ce niveau élevé (environ 5 km) que la température doit être d’environ 255 °K pour équilibrer le rayonnement entrant. Cependant, comme la température diminue avec la hauteur, la surface de la Terre doit maintenant être en fait plus chaude que 255 °K. Il s’avère qu’elle doit être d’environ 288 °K (15 °C, ce qui est en effet la température moyenne de la surface de la Terre). L’ajout d’autres gaz à effet de serre (comme le CO2) augmente encore le niveau d’émission et provoque une augmentation supplémentaire de la température du sol. On estime que le doublement du CO2 équivaut à un forçage d’environ 4 W / m2, ce qui représente un peu moins de 2% des 240 W / m2 entrants nets.

La situation peut en fait être plus compliquée si des nuages de type cirrus de niveau supérieur sont présents. Ce sont des absorbeurs et émetteurs de rayonnement infrarouge très puissants qui bloquent efficacement le rayonnement infrarouge vers le bas. Ainsi, lorsque de tels nuages sont présents au-dessus d’environ 5 km, avec leur sommet à plus de 5 km d’altitude, ils déterminent le niveau d’émission. Cela rend la température du sol (c’est-à-dire l’effet de serre) dépendante de la couverture nuageuse. La quantification de cet effet peut être trouvée dans Rondanelli et Lindzen [29].

De nombreux facteurs, notamment les fluctuations de la zone et de la hauteur moyenne des nuages, la couverture neigeuse, les circulations océaniques, etc… entraînent généralement des modifications du budget radiatif comparables à celles du doublement du CO2. Par exemple, l’effet radiatif moyen global net des nuages est de l’ordre de – 20 W / m2 (effet de refroidissement). Un forçage de 4 W / m2, à partir d’un doublement de CO2, ne correspond donc qu’à une variation de 20% de l’effet net des nuages.

vii. Il est important de noter qu’un tel système fluctuera avec des échelles de temps allant de quelques secondes à des millénaires même en l’absence de forçage explicite autre qu’un Soleil ayant une activité fixe.

Une grande partie de la littérature populaire (des deux côtés du débat sur le climat) suppose que tous les changements doivent être entraînés par un facteur externe. Bien sûr, le système climatique est entraîné par le Soleil, mais même si le forçage solaire était constant, le climat continuerait de varier. De plus, étant donné la nature massive des océans, de telles variations peuvent impliquer des échelles de temps de millénaires plutôt que de millisecondes. El Nino est un exemple relativement court impliquant quelques années, mais la plupart de ces variations temporelles internes sont trop longues pour être même identifiées dans notre système de données instrumentales relativement court. La nature a de nombreux exemples de variabilité autonome, notamment le cycle des taches solaires d’environ 11 ans et les inversions du champ magnétique terrestre tous les deux cent mille ans environ. À cet égard, le système climatique n’est pas différent des autres systèmes naturels, c’est-à-dire qu’il peut présenter une variabilité autonome. Des exemples bien connus comprennent l’oscillation quasi biennale de la stratosphère tropicale, l’oscillation australe El-Nino, l’oscillation multidécennale atlantique et l’oscillation décennale du Pacifique.

viii. Bien sûr, ces systèmes répondent également au forçage externe, mais un tel forçage n’est pas nécessaire pour qu’ils présentent une variabilité.

Se limiter à des questions totalement non controversées signifie que la description ci-dessus n’est pas entièrement complète, mais elle montre l’hétérogénéité, les nombreux degrés de liberté et les nombreuses sources de variabilité du système climatique.

L’évaluation «consensuelle» de ce système est aujourd’hui la suivante : Dans ce système multifactoriel complexe, le climat (qui, lui-même, se compose de nombreuses variables – en particulier la différence de température entre l’équateur et les pôles) est décrit par une seule variable, la variation de la température moyenne mondiale, et est contrôlé par la perturbation de 1 à 2% du budget énergétique due à une seule variable (n’importe quelle variable) parmi de nombreuses variables d’importance comparable. Allons plus loin et désignons le CO2 comme unique contrôle. Bien que nous ne soyons pas sûrs du budget de cette variable, nous savons précisément quelles politiques mettre en œuvre pour la contrôler.

Comment une image aussi naïve a-t-elle pu être acceptée, non seulement par les partisans de ce seul paramètre, mais aussi par la plupart des sceptiques ? Après tout, nous consacrons une grande partie de nos efforts à discuter des relevés des températures mondiales, de la sensibilité au climat, etc… En bref, nous sommes guidés par cette ligne de pensée.

Historique

En fait, ce point de vue sur le climat a été initialement rejeté par de nombreuses personnalités, dont le directeur du Scripps Institute of Oceanography (1), le directeur du Centre européen de prévision météorologique à moyen terme (2), le chef de l’Organisation météorologique mondiale (3), le chef de l’unité de recherche sur le climat de l’Université d’East Anglia (4), l’ancien chef du British Meteorological Office (5), un ancien président de la US National Academy of Science (6), les principaux climatologues soviétiques (7) etc. Même en 1988, lorsque James Hansen a présenté son célèbre témoignage au Sénat américain, Science Magazine a fait état d’un scepticisme généralisé dans la petite communauté des climatologues d’alors. Cependant, tous ces individus appartenaient à une génération plus âgée et beaucoup sont maintenant morts. Entre 1988 et 1994, les choses ont radicalement changé. Aux États-Unis, le financement pour le climat a augmenté d’un facteur d’environ 15. Cela a entraîné une forte augmentation du nombre de personnes intéressées à travailler en tant que « climatologues », et les nouveaux climatologues ont compris que la raison du financement était l’ « alarme de réchauffement climatique ».

En France, dans les années 60, il y avait essentiellement un seul météorologiste théorique, Queney. Aujourd’hui, des centaines sont impliqués dans les modèles sinon la théorie, et cela est largement dû au « réchauffement climatique ». Est-il déraisonnable de se demander si un seul mouvement politique n’a pas réussi à saisir ce domaine scientifique ?

Note. (1) William Nierenberg, (2) Lennard Bengtsson, (3) Askel Wiin-Nielsen, (4) Hubert Lamb, (5) Basil John Mason, (6) Frederick Seitz, (7) Mikhail Budyko, Yuri Izrael et Kiril Kondratiev.

Quelle était la situation auparavant ? Pendant la majeure partie du XXe siècle, le climat était un petit sous-ensemble de petits domaines de la météorologie et de l’océanographie avec des contributions importantes d’une poignée de géologues. Presque aucun grand scientifique travaillant sur des aspects du climat ne s’appelait lui-même «climatologues». En météorologie, l’approche dominante du climat était la météorologie dynamique (bien que l’effet de serre fut bien connu).

Pfeffer [27] fournit un bon exemple de ce qui était considéré comme les problèmes fondamentaux du climat en 1955. Il s’agit des actes d’une conférence qui a eu lieu en 1955 à l’Institut d’études avancées de l’Université de Princeton, où John von Neumann avait commencé la prévision numérique du temps. Les contributeurs à ce volume comprenaient J. Charney, N. Phillips, E. Lorenz, J. Smagorinsky, V. Starr, J. Bjerknes, Y. Mintz, L. Kaplan, A. Eliassen, entre autres (avec une introduction de J. Robert Oppenheimer). Les contributeurs étaient généralement considérés comme les chefs de file de la météorologie théorique. Un seul article traitait du transfert radiatif et ne se concentrait pas sur l’effet de serre, bien que l’augmentation du CO2 soit brièvement mentionnée. Certes, Callendar [4] avait suggéré que l’augmentation du CO2 aurait pu provoquer le réchauffement de 1919 à 1939, mais les principaux météorologues anglais de l’époque, Simpson et Brunt, ont souligné les lacunes de son analyse dans les commentaires qui ont suivi la présentation du papier de Callendar.

Première approche du climat par rapport à la position actuelle

Dans les années 80, avec les progrès de la paléoclimatologie, plusieurs aspects de l’histoire du climat sont apparus avec une clarté accrue. Nous avons commencé à voir plus clairement la nature cyclique des cycles de glaciation du dernier million d’années environ [14]. Des périodes chaudes comme l’Éocène (il y a 50 millions d’années) sont devenues mieux définies [32]. Les données suggèrent que pour les périodes glaciaires et les périodes chaudes, les températures équatoriales ne différaient pas beaucoup des valeurs actuelles, mais la différence de température entre les tropiques et les hautes latitudes variait considérablement. Voici les différences de température:

Capture d’écran 2020-06-25 à 15.30.26.png

Les variations des températures équatoriales étaient beaucoup plus faibles que les différences ci-dessus. Fait intéressant, cependant, les estimations originales étaient que la température équatoriale pendant l’Éocène était un peu plus froide qu’elle ne l’est aujourd’hui [32], tandis que la température équatoriale pendant le dernier maximum glaciaire (LGM) était un peu plus chaude qu’elle ne l’est aujourd’hui. Bien sûr, ce n’est pas ce à quoi on pourrait s’attendre pour le forçage par effet de serre, et des efforts intenses ont été déployés pour « corriger » les températures équatoriales. Aujourd’hui, la température équatoriale de l’Éocène, communément admise, est considérée comme impossible à distinguer de celle d’aujourd’hui [25], tandis que la température équatoriale du LGM est généralement considérée comme étant environ 2 °C plus froide qu’aujourd’hui. En ce qui concerne cette discussion, les changements de température équatoriale sont encore faibles. La situation ci-dessus soulève des questions passionnantes et importantes concernant le climat. Nous allons examiner trois de ces questions.

1. Qu’est-ce qui explique les cycles de glaciation des 700 000 dernières année ?

Milankovitch [23] a avancé très tôt une suggestion intéressante à ce sujet : à savoir que les variations orbitales entraînaient de fortes variations de l’insolation estivale dans l’Arctique, ce qui déterminait si les accumulations de neige hivernales fondaient ou persistaient tout au long de l’été. Imbrie et d’autres ont trouvé une corrélation assez faible entre les pics du forçage orbital et le volume de glace arctique. Cependant, Roe [28] et Edvardsson et al. [6] ont montré que lorsque l’on compare la dérivée temporelle du volume de glace plutôt que le volume de glace lui-même, la corrélation avec l’insolation estivale est excellente. C’est ce qui est montré explicitement dans la figure 1 (tiré de Roe [28]). Cette figure montre le meilleur ajustement des paramètres orbitaux à la dérivée temporelle du volume de glace, et cela est presque identique au paramètre Milankovitch. Notez que l’insolation varie localement d’environ 100 W / m2. Edvardsson et al. [6], a montré que les variations de l’insolation était quantitativement cohérente avec la fonte et la croissance de la glace. Cela semble constituer une preuve solide du bien-fondé de la proposition de Milankovitch. (Note. SPECMAP est l’acronyme du projet de datation des sédiments marins afin de permettre la datation des carottages glaciaires tant au Groenland qu’en Antarctique).

Capture d’écran 2020-06-25 à 15.38.47.png

Il est intéressant de noter comment la position dominante actuelle traite de ce problème (Ruddiman [30], voir aussi Genthon et al. [8]). Aucune mention n’est faite du succès remarquable des efforts indépendants d’Edvardsson et al. [6] et Roe [28]. De plus, Roe a dû inclure une mise en garde que son travail n’avait aucune implication pour le rôle du CO2, afin de pouvoir faire publier son article (communication personnelle).

L’approche officielle actuelle [15] est la suivante : l’insolation estivale arctique est ignorée et au contraire, seule l’insolation moyenne à l’échelle mondiale et annuelle est prise en compte, et celle-ci varie d’environ deux ordres de grandeur de moins que l’insolation estivale de l’Arctique. Un rôle causal du CO2 ne peut pas être revendiqué puisque ces variations (entre 180 et 280 ppmv – correspondant à un changement de forçage radiatif d’environ 1 W / m2) suivent plutôt que précèdent les changements de température. Il est donc soutenu que les variations orbitales « rythment » les cycles de glaciation et que les changements de CO2 qui en résultent fournissent l’amplification nécessaire. Cette interprétation est une conséquence directe du fait de considérer l’insolation globale comme le moteur des changements. En réalité, comme le notent Roe (et Milankovitch), l’Arctique réagit au rayonnement dans l’Arctique, et les changements dans l’Arctique sont beaucoup plus importants que ceux associés à l’insolation moyenne mondiale. Pour être juste, il convient de mentionner que des analyses plus récentes tendent à corroborer cette image plus réaliste de la réponse des hautes latitudes à l’insolation (par exemple Abe-Ouchi et al. [1] ou Ganopolski et Brovkin [7]).

Revenons maintenant aux deux questions restantes. 2. Qu’est-ce qui explique la stabilité des températures tropicales? Les processus radiatifs-convectifs (y compris l’effet de serre) sont généralement considérés comme jouant un rôle majeur dans la détermination de la température tropicale. Le fait que ces températures semblent avoir peu changé dans des régimes climatiques radicalement différents est compatible avec une faible sensibilité au forçage par effet de serre [22]. En effet, il existe des preuves solides qu’il y a environ 2,5 milliards d’années, les températures équatoriales du sol étaient à peu près les mêmes qu’aujourd’hui, malgré une constante solaire inférieure de 20 à 30% à ce qu’elle est aujourd’hui. Sagan et Mullen [31] y ont fait référence sous le nom de « Early Faint Sun Paradox » (paradoxe du soleil faible ancien). La plupart des tentatives pour expliquer cela se sont appuyées sur des niveaux divers gaz à effet de serre, mais, comme l’ont montré Rondanelli et Lindzen [29], il est facilement expliqué par les rétroactions négatives des nuages de cirrus de niveau supérieur, comme cela a été constaté précédemment par Lindzen et al. [21]. 3. Qu’est-ce qui a déterminé les différences de température du sol de l’équateur au pôle ? Ici, on pensait généralement que le processus dynamique responsable du transfert de chaleur nord-sud était impliqué. Le processus est ce qu’on appelle l’instabilité barocline [12, 20, 26] (et essentiellement tous les manuels sur la dynamique des fluides en géophysique), et la pensée conventionnelle était que la différence de température résultait de l’équilibration de cette instabilité où l’état moyen se rapproche d’un état neutre vis-à-vis de cette instabilité. Le casse-tête, cependant, était de savoir comment il pouvait y avoir différentes équilibrations pour différents climats. La première tentative pour déterminer l’état d’équilibre a utilisé ce qu’on appelle l’approximation à deux couches dans laquelle l’atmosphère est approximée par 2 couches. Dans les systèmes en rotation comme la Terre, il existe une forte proportionnalité entre le cisaillement vertical du vent et le gradient de température horizontal. C’est ce qu’on appelle la relation du vent thermique. Dans le modèle à deux couches, il existe un cisaillement critique pour l’instabilité barocline et une différence de température méridienne associée entre les tropiques et le pôle qui s’est avérée être de 20 °C [19], qui est la valeur durant l’Éocène. En présence de neige et de glace, le profil de température vertical affiche ce que l’on appelle l’inversion arctique où, au lieu de la diminution habituelle de la température avec l’altitude, la température augmente en fait avec cette altitude. Cette inversion augmente considérablement la stabilité statique de l’atmosphère sous la tropopause et, comme suggéré par Held et Suarez [9], cela devrait réduire le transport thermique méridien. Cela semble expliquer les différences de température entre les tropiques et les pôles au cours du présent et des grandes glaciations.

La situation lorsque l’on considère une atmosphère continue au lieu du modèle à deux niveaux est beaucoup plus difficile à traiter. L’équilibration, dans ce cas, détermine la pente de la surface iso-entropique reliant la surface tropicale à la tropopause polaire [17] tout en laissant ambigu le champ de température en dessous de cette surface. L’équilibration se réfère simplement à ce que les instabilités barocliniques tentent de produire. L’entropie dans l’atmosphère est décrite par ce qu’on appelle la température potentielle. Il s’agit de la température qu’aurait une parcelle d’air si elle était abaissée adiabatiquement à la surface (là où la pression est plus élevée). Un isentrope originaire de la surface sous les tropiques s’élèvera à l’approche du pôle et déterminera essentiellement la température à la tropopause au-dessus du pôle. Selon Jansen et Ferarri [17], cela, à son tour, détermine la différence de température des tropiques au pôle à la hauteur de la tropopause polaire (environ 6 km), et cette valeur est d’environ 20 °C. Quand on regarde le climat d’aujourd’hui, on voit que la différence de température pôle-équateur à l’altitude de la tropopause polaire est en fait d’environ 20 °C [24]. L’existence de l’inversion arctique fait que les différences de température de surface entre les tropiques et le pôle sont plus importantes qu’elles ne le sont à la tropopause.

Encore une fois, l’explication actuellement répandue a une vision différente de cette situation. La physique a fini par être associée exclusivement à l’effet de serre amplifié par la rétroaction positive supposée de la vapeur d’eau. La variation de la différence de température entre l’équateur et le pôle a été attribuée à une certaine «amplification polaire» imaginaire, selon laquelle la température pôle-équateur suivait automatiquement la température moyenne [11]. Bien que l’analogie ne soit guère exacte, elle n’est pas si différente de l’hypothèse selon laquelle le débit d’eau dans une conduite dépend de la pression moyenne plutôt que du gradient de pression. En effet, il a été noté que certains modèles importants affichent à peine cette amplification polaire [18], tandis que les tentatives de modélisation de l’Éocène en augmentant simplement le CO2 aboutissent souvent à la distribution de température équateur-pôle d’aujourd’hui qui est uniformément augmentée [2, 13]. En ce qui concerne l’Éocène, cela a conduit à un réchauffement équatorial beaucoup plus important que celui observé dans les modèles.

L’un des résultats les plus insidieux de l’hypothèse que le changement de la température de l’équateur au pôle est une conséquence automatique du réchauffement climatique a été l’affirmation selon laquelle les données du paléoclimat impliquent une sensibilité climatique très élevée. Un traitement simpliste (schématique) des contributions séparées de l’effet de serre et des changements produits dynamiquement de la différence de température de l’équateur au pôle à la température moyenne mondiale illustre ce problème. La Figure 2 illustre la situation où x = sin (φ), φ latitude, x1 est l’étendue méridionale de la circulation de Hadley qui homogénéise efficacement horizontalement la température tropicale [10], les tropiques et la différence de température δT2 équateur-pôle.

Capture d’écran 2020-06-25 à 16.09.25

Notez que ΔT1 est le réchauffement des tropiques, tandis que Δ(δT2) est le changement de la différence de température de l’équateur au pôle. Alors que ΔT1 reflète la sensibilité au forçage et aux rétroactions de serre (c’est-à-dire radiatives), Δ(δT2) n’en a pas besoin, surtout lorsque ce dernier facteur est beaucoup plus grand que le premier. Toutes les tentatives d’estimation de la sensibilité au climat à partir des données paléo (du moins pour autant que je sache) ne parviennent pas à distinguer les deux et à attribuer les deux contributions au forçage à effet de serre dans l’estimation de la sensibilité au climat. Cela pourrait être une erreur majeure.

Capture d’écran 2020-06-25 à 16.11.21.png

Par exemple, en l’absence de forçage à effet de serre, ΔT1 pourrait être nul, alors qu’il pourrait toujours y avoir une contribution de Δ(δT2), ce qui conduirait bien sûr à un changement de la température moyenne mondiale. Ceci, à son tour, conduirait à la fausse conclusion que la sensibilité était infinie. Plus réaliste encore, si la sensibilité du climat au forçage radiatif était très faible, les contributions de Δ(δT2) pourraient encore conduire à conclure à tort que la sensibilité était grande [8].

Remarques finales

Comme indiqué dans la Section 2, il est peu plausible qu’un système aussi complexe que le système climatique avec de nombreux degrés de liberté soit résumé de manière significative par une seule variable (anomalie de la température moyenne mondiale) et déterminé par un seul facteur (le niveau de CO2 dans l’atmosphère). À titre d’exemple, nous avons montré dans la Section 4, que la physique différente associée aux températures tropicales (c’est-à-dire le forçage radiatif, y compris les rétroactions radiatives) et à la différence de température équateur-pôle (c’est-à-dire le transport hydrodynamique via les instabilités barocliniques) entraîne toutes deux des changements dans la température moyenne mondiale. Cependant, cela ne signifie pas que les changements de la température moyenne mondiale provoquent des changements dans la différence de température de l’équateur au pôle. Ce bref article s’est concentré sur un seul exemple de cas où l’hypothèse d’un contrôle à variable unique peut conduire à un résultat erroné. Cependant, la question de la sensibilité, même lorsqu’elle est limitée au rayonnement, est encore sujette à de nombreuses possibilités, et il y a de bonnes raisons de supposer que la composante radiative de la sensibilité est, elle-même, exagérée dans la plupart des modèles actuels. Une discussion séparée de cette question peut être trouvée dans Lindzen [22].

Fait intéressant, même ceux d’entre nous qui rejettent l’alarme climatique (y compris moi) se sont concentrés sur l’image de la serre malgré le fait que cela ne soit pas le facteur majeur du changement climatique historique (sauf, dans le cas, d’une faible sensibilité, pour expliquer la stabilité des températures équatoriales). C’est-à-dire que nous avons accepté la prémisse de base de l’image conventionnelle : à savoir que tous les changements de température moyenne mondiale sont dus au forçage radiatif. Bien que la compréhension de ce récit soit un élément crucial dans une bataille politique, il ne devrait pas être autorisé d’ignorer le raisonnement scientifique.

Article de Richard S. Lindzen paru le 3 juin 2020 dans The European Physical Journal Plus ( https://doi.org/10.1140/epjp/s13360-020-00471-z ) aimablement communiqué par l’auteur sur ma demande. Je l’ai informé de la traduction en français avant de la faire figurer sur mon blog.

Références

  1. A. Abe-Ouchi, F. Saito, K. Kawamura et al., Insolation-driven 100,000-year glacial cycles and hysteresis of ice-sheet volume. Nature 500, 190–193 (2013). https://doi.org/10.1038/nature12374
  2. E.J. Barron, W.M. Washington, Warm cretaceous climates: high atmospheric CO2 as a plausible mech- anism in the carbon cycle and atmospheric CO2, in Natural Variations Archean to Present, ed. by E.T. Sundquist, W.S. Broecker (American Geophysical Union, Washington, 1985). https://doi.org/10.1029/ GM032p0546
  3. J.S.Boyle,UpperlevelatmosphericstationarywavesinthetwentiethcenturyclimateoftheIntergovern- mental Panel on Climate Change simulations. J. Geophys. Res. 111, D14101 (2006). https://doi.org/10.1 029/2005JD006612
  4. J.S.Callendar,Theartificialproductionofcarbondioxideanditsinfluenceontemperature.Proc.R.Met. Soc. (1938). https://doi.org/10.1002/qj.49706427503
  5. CLIMAP Project Members, The surface of the ice-age earth. Science 191(4232), 1131–1137 (1976). https://doi.org/10.1126/science.191.4232.1131
  6. R.S.Edvardsson,K.G.Karlsson,M.Engholmoe,Accuratespinaxesandsolarsystemdynamics:climatic variations for the Earth and Mars. Astron. Astrophys. 384, 689–701 (2002). https://doi.org/10.1051/000 4-6361:20020029
  7. A. Ganopolski, V. Brovkin, Simulation of climate, ice sheets and CO2 evolution during the last four glacial cycles with an Earth system model of intermediate complexity. Clim Past 13, 1695–1716 (2017)
  8. G. Genthon, J.M. Barnola, D. Raynaud, C. Lorius, J. Jouzel, N.I. Barkov, Y.S. Korotkevich, V.M. Kotlyakov, Vostok ice core: climatic response to CO2 and orbital forcing changes over the last climatic

    cycle. Nature 329, 414–418 (1987)

  9. I.M.Held,M.Suarez,Atwo-levelprimitiveequationatmosphericmodeldesignedforclimaticsensitivity

    experiments. J. Atmos. Sci. 35, 206–229 (1978)

  10. I.M.Held,A.Y.Hou,Nonlinearaxiallysymmetriccirculationsinanearlyinviscidatmosphere.J.Atmos.

    Sci. (1980). https://doi.org/10.1175/1520-0469(1980)037%3c0515:nascia%3e2.0.co;2

  11. M.Holland,C.M.Bitz,Polaramplificationofclimatechangeincoupledmodels.Clim.Dyn.21,221–232

    (2003). https://doi.org/10.1007/s00382-003-0332-6

  12. J.R.Holton,G.J.Hakim,AnIntroductiontoDynamicMeteorology(AcademicPress,Cambridge,2012),

    p. 552

  13. M.Huber,L.C.Sloan,Warmclimatetransitions:ageneralcirculationmodelingstudyoftheLatePale-

    ocene thermal maximum (about 56 Ma). J. Geophys. Res. Atmos. 104, 16633–16655 (1999). https://doi.

    org/10.1029/1999JD900272

  14. J.Imbrie,K.P.Imbrie,IceAges:SolvingtheMystery(Macmillan,London,1979),p.244
  15. IPCCAR5-Box5.1(2013),https://www.ipcc.ch/report/ar5/wg1/
  16. IPCCSR15(2018),https://www.ipcc.ch/site/assets/uploads/sites/2/2019/06/SR15_Headline-statements.

pdf

  1. M. Jansen, R. Ferarri, equilibration of an atmosphere by adiabatic eddy fluxes. J. Atmos. Sci. (2013).

    https://doi.org/10.1175/JAS-D-13-013.1

  2. M.I.Lee,M.J.Suarez,I.S.Kang,I.M.A.Held,D.Kim,Amoistbenchmarkcalculationfortheatmospheric general circulation models. J. Clim. 21, 4934–4954 (2008). https://doi.org/10.1175/2008jcli1891.1
  3. R.S.Lindzen,B.Farrell,Theroleofpolarregionsinglobalclimate,andtheparameterizationofglobal

    heat transport. Mon. Weather Rev. 108, 2064–2079 (1980)

  4. Lindzen,R.S.(1990).DynamicsinAtmosphericPhysics,CambridgeUniv.Press,324pages
  5. R.S.Lindzen,M.-D.Chou,A.Y.Hou,DoestheEarthhaveanadaptiveinfrarediris?Bull.Am.Meteorol.

    Soc. 82(3), 417–432 (2001)

  6. Lindzen, R.S. (2019), http://co2coalition.org/wp-content/uploads/2019/12/Lindzen_On-Climate-

    Sensitivity.pdf

  7. M.Milankovitch,KanonderErdbestrahlungundseineAndwendungaufdasEiszeiten-problem(R.Ser- bian Acad, Belgrade, 1941)
  8. R.E. Newell, J.W. Kidson, D.G. Vincent, G.J. Boer, The Circulation of the Tropical Atmosphere and Interactions with Extratropical Latitudes, vol. 1 (M.I.T. Press, Cambridge, 1972)
  9. P.N. Pearson, B.E. van Dongen, C.J. Nicholas, R.D. Pancost, S. Schouten, J.M. Singano, B.S. Wade, Stable warm tropical climate through the Eocene Epoch. Geology 35(3), 211–214 (2007). https://doi.org/ 10.1130/G23175A.1
  10. J.Pedlosky,GeophysicalFluidDynamics(Springer,Berlin,1992),p.710
  11. R.L.Pfeffer(ed.),DynamicsofClimate:TheProceedingsofaConferenceontheApplicationofNumerical

    Integration Techniques to the Problem of the General Circulation held October 26–28, 1955 (Pergamon

    Press, Oxford, 1960), p. 154

  12. G.Roe,IndefenseofMilankovitch.Geophys.Res.Lett.(2006).https://doi.org/10.1029/2006GL027817
  13. R. Rondanelli, R.S. Lindzen, Can thin cirrus clouds in the tropics provide a solution to the faint young

    Sun paradox? J. Geophys. Res. 115, D02108 (2010). https://doi.org/10.1029/2009JD012050

  14. W.F.Ruddiman,Ice-drivenCO2feedbackonicevolume.Clim.Past2,43–55(2006)
  15. C. Sagan, G. Mullen, Earth and Mars: evolution of atmospheres and surface temperatures. Science

    177(4043), 52–56 (1972)

  16. N.Shackleton,A.Boersma,TheclimateoftheEoceneocean.J.Geol.Soc.Lond.138,153–157(1981)
  17. K.E. Trenberth, J.T. Fasullo, J. Kiehl, Earth’s global energy budget. Bull. Am. Meteorol. Soc. 90(3),

    311–323 (2009). https://doi.org/10.1029/GM032p0546

 

Brève politique : Houellebecq avait raison

La campagne pour les élections municipales en France, un véritable théâtre d’ombres avec le coronavirus en toile de fond, a autorisé tous les excès de la part des apprentis-sorciers de la politique avides de pouvoir. C’est déplorable mais également inquiétant.

Dans la ville de Toulouse, quatrième ville de France, l’écologiste Antoine Maurice, arrivé en deuxième position au premier tour de ces élections, a ratissé tous azimuths pour conforter son score et remporter la course au pognon. Il faut en effet appeler les choses par leur nom. Cet écolo s’est allié aux socialistes et on ne peut pas lui en vouloir puisque les écolos sont tous des néo-trotskystes d’ultra-gauche. Mais il y a pire encore ! Cet individu a passé une alliance avec le parti appelé Union Démocratique des Musulmans Français, un parti notoirement affilié au mouvement des Frères Musulmans.

Antoine Maurice est un proche de Cécile Duflot, ancienne ministre du logement et maintenant directrice d’Oxfam-France, une ONG britannique connue pour ses liens avec le MI6. Ce même MI6 avait facilité l’obtention de l’asile politique en France et en Allemagne pour des membres de cette confrérie secrète dont le projet est de prendre le pouvoir et d’imposer la charia dans les démocraties européennes. On peut dire que les manigances d’Antoine Maurice ressemblent à un accouplement entre une carpe et un lapin. Décidément, pour accéder au pouvoir, les écolos n’ont même plus le moindre soupçon de pudeur …

Le « racialisme » et les statues en France

Capture d’écran 2020-06-24 à 11.03.12.png

Article de Michael Curtis* paru sur le site American Thinker le 22 juin 2020

Dans son discours à Nice le 14 juin 2020, le président français Emmanuel Macron a déclaré: «Je serai très clair ce soir. La République n’effacera aucun nom de son histoire. Elle n’oubliera aucune de ses œuvres d’art, elle ne démontera pas de statues. »

La France, comme d’autres pays, a été touchée par le meurtre de George Floyd à Minneapolis, qui a déclenché des manifestations en France, un pays déjà troublé par le manque d’intégration des immigrants non blancs et musulmans des anciennes colonies. Les manifestations se concentrent non seulement sur la mort de Floyd mais également sur la mort d’un jeune homme de 26 ans d’origine malienne, Adama Traoré, décédé le 19 juillet 2016 des suites d’une asphyxie alors qu’il était en garde à vue. De grandes manifestations ont eu lieu avec des participants tenant des pancartes pour arrêter la violence policière, et certains faisant écho aux États-Unis en «faisant une génuflexion» et en gardant un silence de huit minutes. Des milliers de personnes se sont rassemblées place de la République à Paris et y ont escaladé la statue de Marianne, qui incarne la République.

Les protestations se concentrent sur la conviction que la race ou l’ethnicité sont toujours la base de la discrimination. Le président Macron a affirmé que le racisme est une trahison du républicanisme universel, mais aussi que le «noble combat» est inacceptable lorsqu’il est repris par les séparatistes.

La race est devenue centrale ces dernières années à bien des égards et est un sujet de division. D’une part. il y avait une exposition d’art, adaptée du travail d’une universitaire américaine Denise Murrell, en mars 2019 au Musée d’Orsay, centrée sur l’affirmation selon laquelle l’histoire de l’art avait omis les noms des modèles noirs dans les chefs-d’œuvre français de Géricault à Matisse. La justification est que dans les 300 œuvres artistiques avec des personnes de couleur, les modèles noirs «oubliés», ont été éclipsés par le racisme et les stéréotypes. D’autre part, il y a opposition à l’annulation en France de la projection du film « Autant en emporte le vent » avec l’argument selon lequel la France défendra toujours la liberté de créer et de distribuer des œuvres d’art.

Les protestations françaises ont également imité celles des États-Unis et du Royaume-Uni avec des menaces de renverser les statues de Français vénérés mais maintenant controversés. Trois de ces figures historiques en particulier sont menacés d’actions hostiles : les statues de Jean-Baptiste Colbert, Joseph Gallieni et Charles de Gaulle. Colbert, homme d’état et conseiller de Louis XIV et défenseur du mercantilisme, participa en 1685 à la rédaction du Code Noir, le code juridique qui définit la condition de l’esclavage dans l’empire colonial. Une partie du code stipulait que les esclaves fugitifs devaient avoir les oreilles coupées. L’esclavage a finalement été aboli en 1848. Gallieni était le commandant militaire des colonies qui, entre autres actions, a réprimé les rébellions contre la domination coloniale au Soudan, en Indochine française et à Madagascar en 1896, les réprimant par le travail forcé et des exécutions. Charles de Gaulle est le plus connu des trois. Le buste de de Gaulle à Hautmont dans le nord de la France près de la frontière belge a été défiguré avec le slogan «conducteur d’esclaves».

La France comme la Grande-Bretagne sont actuellement préoccupées par les protestations contre l’injustice raciale et la brutalité policière, ainsi que par les questions de racisme et de colonialisme. Le problème des statues de personnalités controversées inquiète la France comme la Grande-Bretagne. Macron comprend que l’adresse, le nom et la couleur de peau d’un individu peuvent réduire les chances de réussite dans la société française. Pourtant, il soutient que chacun peut trouver sa place quelle que soit son origine ethnique ou sa religion. Il dénonce le racisme, l’antisémitisme et la discrimination. Néanmoins, il est opposé à la suppression de statues de personnalités controversées. La République n’effacera aucune trace ni aucun nom de son histoire, et elle ne démontera aucune statue. Nous devrions regarder toute notre histoire, y compris les relations avec l’Afrique dans le but de «vérité», au lieu de nier qui nous sommes. Il faut s’unir autour du patriotisme républicain.

Cependant, il existe des nuances dans les positions officielles françaises sur la race. La porte-parole du gouvernement, Sibeth Ndiaye, une femme noire d’origine sénégalaise, a affirmé que la France devrait évaluer la représentation des personnes de couleur dans la vie publique, politique, économique et culturelle du pays. Elle a fait allusion à un problème technique. Une loi française de 1978 interdit la collecte de données sur la race, l’ethnie ou les opinions politiques ou religieuses d’une personne. La collecte de données sur la race est illégale. Par conséquent, il n’y a pas de données officielles sur la composition raciale de la population et l’étendue réelle du racisme n’est pas claire. Ndiaye soutient que la révélation de données raciales peut aider à lutter contre le « racisme subtil ». La différence entre son point de vue et celui de Macron demeure. Ndiaye soutient qu’il ne faut pas hésiter à dire que la couleur de peau n’est pas neutre.

Le dilemme français sur l’étendue du racisme existe et le problème est urgent. Mais la position du président français est claire. Le contraste avec les États-Unis est saisissant. L’histoire de la France ne sera pas réécrite et la destruction ou l’élimination des statues et monuments commémoratifs ne sera pas autorisée.

Note. Ne pas confondre avec Michael Curtiz, réalisateur d’immenses films comme « La charge de la brigade légère », « Casablanca » ou encore « Mildred Pierce » parmi les plus célèbres qu’il me plait de revoir souvent. Demain vendredi 26 juin 2020, pas de billet car je vais passer une journée à l’hôpital pour divers examens.

Effets secondaires sordides de la « Green Energy »

Capture d’écran 2020-06-22 à 18.37.00

Alors que les appels à plus d’énergies renouvelables et à un montage idéologique de récupération verte post-Covid, les défenseurs des énergies renouvelables sont confrontés à des questions inconfortables sur les grandes quantités de matières premières nécessaires à leur révolution verte et à des allégations de travail forcé des enfants qui ternissent la base de leurs chaînes d’approvisionnement en matériaux de spécialité.

La transition mondiale vers les énergies renouvelables pourrait conduire à des violations des droits de l’homme et risquerait d’aggraver les inégalités entre l’Occident et le monde en développement. Pourtant les « verts-pastèque » insistent sur le fait que nous n’avons plus le choix car il s’agit selon eux d’un défi existentiel si on ne corrige pas drastiquement nos habitudes de vie alors que ces mêmes « verts » sont les premiers à revendiquer des postes de responsabilités pour s’ébattre dans les salons ministériels feutrés et rouler ostensiblement dans une voiture électrique dernier modèle pour l’achat de laquelle il faut au moins un salaire de vice-président de la sous-commission des énergies renouvelables placée sous la tutelle du Premier ministre … et cette situation n’est pas unique à la France et de loin. L’idéologie verte a envahi toutes les strates du monde politique depuis la Présidente de la Commission européenne jusqu’aux maires de petites villes de province. La vérité sur les énergies vertes est dérangeante et l’article ci-dessous paru sur le site d’Antony Watts (WattsUpWithThat) en apporte quelques preuves. Voici un article de Carl-Johan Karlsson et Katarina Zimmer, 18 Juin 2020 qui étaye ce commentaire.

Le changement climatique reste l’une des menaces les plus graves pour l’intégrité de la vie sur terre. Heureusement, de nombreux outils nécessaires pour arrêter de chauffer la planète existent déjà. L’utilisation des ressources énergétiques renouvelables se développe en Occident, mais la production de véhicules électriques, d’éoliennes et de cellules solaires doit être intensifiée. Pour s’approvisionner en énergie renouvelable d’ici 2050, une condition considérée comme nécessaire pour limiter le réchauffement climatique à 1,5 degré Celsius, les citoyens auront besoin d’un milliard de voitures électriques supplémentaires et d’une augmentation de plus de 30 fois de la capacité solaire photovoltaïque.

Mais alors que les économies occidentales s’attaquent à la crise climatique – bien qu’à un rythme extrêmement lent – une autre crise s’aggrave ailleurs. La fabrication de tous ces véhicules, panneaux et turbines nécessite des ressources telles que le cuivre, le lithium et le cobalt, qui, comme les combustibles fossiles, sont extraits du sol. Mais contrairement aux combustibles fossiles, de nombreuses matières premières pour l’énergie verte proviennent de manière disproportionnée des pays en développement.

Au cours des dernières années, l’extraction de cobalt en République démocratique du Congo a envahi la conscience du public, à commencer par un rapport d’Amnesty International de 2016 qui a révélé le travail des enfants sur les sites miniers non industriels de pays fournissant le cobalt qui se retrouve dans les téléphones intelligents et d’autres appareils dans le monde.

Les technologies renouvelables créent des problèmes éthiques aux deux extrémités de leur cycle de vie. Sovacool faisait partie d’une équipe de chercheurs qui a récemment visité les deux extrémités des chaînes d’approvisionnement technologiques : les sites d’extraction artisanale de cobalt au Congo, où les mineurs extraient le métal à l’aide d’outils rudimentaires ou de leurs mains, et les casses électroniques de déchets au Ghana, un cimetière mondial de l’électronique, tels que les panneaux solaires. Les conclusions de l’équipe révèlent un travail des enfants généralisé, l’assujettissement des minorités ethniques, la pollution toxique, la perte de biodiversité et les inégalités entre les sexes tout au long de la chaîne d’approvisionnement.

Une chose que FP (Foreign Policy, lien ci-dessous) ne précise pas, c’est l’ampleur même de l’augmentation de l’activité minière qui serait nécessaire pour transformer les systèmes énergétiques mondiaux. Un rapport de la Banque mondiale de 2019 a suggéré que la production de cobalt pour les batteries, dont une grande partie est produite à partir de sources souvent douteuses au Congo, devrait être augmentée de 1200% pour limiter le réchauffement climatique à au moins 2 °C.

Si le monde se démène pour adopter les énergies renouvelables, si la demande de cobalt augmente de 1200%, est-ce que quelqu’un pense que les seigneurs de la guerre qui exploitent de nombreuses mines de cobalt du Congo feront en quelque sorte un meilleur travail pour rechercher les enfants qu’ils exploitent ? Ou est-il plus probable que les conditions pour les enfants empirent encore ?

https://foreignpolicy.com/2020/06/18/green-energy-dirty-side-effects-renewable-transition-climate-change-cobalt-mining-human-rights-inequality/

Illustration : enfants extrayant du minerai de cobalt dans les mines de Kailo en RDC

Tenter d’alimenter un réseau électrique avec des énergies 100% intermittentes conduit à une catastrophe économique

L’effort pour augmenter le pourcentage d’électricité produite par des sources renouvelables intermittentes comme le vent et l’énergie solaire entraîne inévitablement une augmentation importante du prix réel de l’électricité qui doit être payé par les consommateurs. Les augmentations de prix augmentent et s’accélèrent à mesure que le pourcentage d’électricité produite à partir des énergies renouvelables intermittentes augmente vers 100%. Ces affirmations peuvent sembler contre-intuitives, étant donné que le coût du combustible pour la production éolienne et solaire est nul. Cependant, une modélisation simple montre la raison de ce résultat apparemment contre-intuitif : la nécessité de quantités importantes et croissantes de systèmes de sauvegarde et de stockage coûteux – des choses qui ne sont pas du tout nécessaires dans les systèmes conventionnels à base de combustibles fossiles. Et ce n’est pas seulement par modélisation que nous savons que de telles augmentations de coûts seraient inévitables. Nous avons également une expérience réelle et croissante de ces quelques gouvernements nationaux qui ont tenté de produire de plus en plus de leur électricité à partir de ces énergies renouvelables. Cette expérience empirique prouve la vérité de l’augmentation de la proposition de prix à la consommation.

Dans les pays qui ont réussi à obtenir une production à partir d’énergies renouvelables allant jusqu’à environ 30% de leur approvisionnement total en électricité, le résultat a été un triplement approximatif du prix de l’électricité pour leurs consommateurs. Les quelques tentatives (essentiellement expérimentales) dont la production à partir d’énergies renouvelables est encore plus élevée que celles qui ont connu des augmentations de coûts encore plus importantes, pour des augmentations relativement mineures de la production à partir d’énergies renouvelables. À mesure que le pourcentage d’électricité provenant des énergies renouvelables augmente, les hausses de prix à la consommation s’accélèrent.

Aucune juridiction, province ou pays, – même expérimentalement – n’a encore réussi à faire augmenter le pourcentage de son électricité produite à partir des énergies renouvelables intermittentes bien au-delà de 50% sur une base annualisée. Pour accomplir l’exploit d’aller au-delà de 50% et de se rapprocher de 100%, le gestionnaire de réseau doit cesser de s’appuyer sur l’énergie de secours des combustibles fossiles pour les périodes d’obscurité et de calme, et passer alors à une certaine forme de stockage, très probablement de très grandes batteries. Le coût de ces batteries, suffisant pour alimenter une juridiction de millions de personnes, est énorme et devient rapidement le coût dominant du système. Des calculs relativement simples du coût des batteries suffisantes pour traverser une année dans une zone industrialisée moderne montrent que ce coût impliquerait une augmentation du prix de l’électricité d’un facteur 15 ou 20, voire plus.

Le fardeau d’une telle augmentation des prix de l’électricité pèserait le plus lourdement sur les personnes pauvres et à faible revenu.

La raison pour laquelle l’augmentation de la production d’énergie renouvelable entraîne une accélération des prix à la consommation est qu’un réseau électrique doit fonctionner avec une fiabilité à cent pour cent 24/7/365. Un réseau fiable nécessite une correspondance très étroite entre la puissance fournie et la puissance demandée minute par minute, voire une fraction de seconde. Mais les sources d’énergie éolienne et solaire connaissent des fluctuations importantes, imprévisibles et souvent soudaines de la puissance qu’elles fournissent. Par conséquent, dans un réseau utilisant de grandes quantités d’énergie éolienne et solaire, des éléments coûteux supplémentaires doivent être ajoutés au système pour uniformiser l’offre et l’adapter sans cesse à la demande. Ces éléments supplémentaires sont à l’origine de l’augmentation des coûts et donc de l’augmentation des prix à la consommation :

· Aux premiers stades de l’évolution vers une production croissante à partir d’énergies renouvelables intermittentes – par exemple, pour obtenir 10% de la production à partir des énergies renouvelables – un opérateur de réseau peut commencer par simplement ajouter de nouvelles éoliennes ou des panneaux solaires au système, et d’ici là accepter cette alimentation sur le réseau lorsqu’elle est disponible. Cependant, il y aura des moments importants où une telle puissance n’est pas disponible (par exemple, des nuits calmes). Par conséquent, la totalité ou la quasi-totalité des capacités de combustibles fossiles préexistantes doivent être maintenues, même si certaines d’entre elles peuvent être inactives la plupart du temps. Bien que le coût du carburant des énergies renouvelables soit nul, l’exploitant doit payer le coût en capital de deux systèmes qui se chevauchent et se dédoublent dans la mesure de la capacité renouvelable.

· Pour obtenir le pourcentage de production à partir d’énergies renouvelables au-delà d’environ 10% et dans une fourchette de 20 à 30%, l’opérateur peut alors tenter une expansion massive des sources renouvelables, de sorte que la capacité renouvelable devienne égale, voire un multiple de utilisation maximale. (Despays comme l’Allemagne et le Danemark ont ​suivi cette stratégie.) Avec une capacité renouvelable aussi massive, le système peut même fonctionner sans secours à certains moments de vent relativement faible ou d’une épaisse couche nuageuse. Cependant, aucune capacité excédentaire ne peut faire qu’un système éolien / solaire génère de l’électricité par une nuit complètement calme, ni aucune quantité significative par une journée d’hiver fortement couverte et calme. Si la sauvegarde provient d’installations utilisant des combustibles fossiles, la quasi-totalité du parc doit encore être maintenue. Comme la capacité éolienne / solaire atteint 100% et même 200% de la consommation de pointe, le coût en capital du système va doubler, voire tripler le coût en capital d’un système utilisant uniquement des combustibles fossiles. Mais, comme la plupart du temps les journées seront sombres, la nuit, et / ou calmes, le pourcentage d’électricité provenant des énergies renouvelables ne sera que d’environ 30%, et la diminution des émissions de carbone des centrales à combustible fossile de secours sera encore moindre, car elles doivent souvent être maintenus en «réserve de rotation» pour être prêtes à intervenir lorsque le vent et le soleil disparaissent.

· Si l’intention est de faire passer le pourcentage de production éolienne et solaire au-dessus de 30% puis à 50% et au-delà, alors par hypothèse, la sauvegarde des combustibles fossiles doit être graduellement supprimée, pour être remplacée progressivement par une sorte de stockage au fur et à mesure que le pourcentage de production à partir d’énergies renouvelables augmente. Les batteries sont la seule option de stockage possible dans la plupart des endroits. La quantité de capacité de stockage nécessaire s’accélère à mesure que le pourcentage de production à partir d’énergies renouvelables s’approche de 100%. En raison de la saisonnalité de la disponibilité du vent et du soleil, la plupart des emplacements nécessitent un mois ou plus de capacité de batterie pour obtenir un système entièrement éolien / solaire pendant une année. Le coût des batteries est énorme, et vient rapidement dominer de très loin le coût global du système. Dans les pays où un calcul a été effectué, le coût des batteries dépasse le PIB annuel total de ce pays et implique une augmentation du prix de l’électricité d’un facteur de 15, 20 ou plus.

Dans un article publié sur le site Web Energy Matters le 22 novembre 2018, Roger Andrews a présenté une analyse détaillée de ce qu’il faudrait pour accéder à un réseau électrique alimenté à 100% par des sources éoliennes et solaires, alimentées par des batteries. Le message de M. Andrews est disponible sur ce lien:  http://euanmearns.com/the-cost-of-wind-solar-power-batteries-included/. L’étude d’Andrews couvre deux cas, l’Allemagne et la Californie. Son analyse est détaillée, mais pas compliquée, et peut être reproduite ou contestée par toute personne compétente en arithmétique de base.

Andrews a collecté des données pour la production d’électricité au jour le jour pendant une année complète à partir de sources éoliennes et solaires existantes pour l’Allemagne et la Californie. Ces données révèlent immédiatement un problème fondamental, à savoir que le vent et le soleil sont non seulement intermittents au cours d’une journée ou d’une semaine donnée, mais ils varient également considérablement d’une saison à l’autre. Ainsi, par exemple, en Californie, le vent et le soleil produisent beaucoup plus d’électricité en été et en automne qu’en hiver et au printemps. Cela signifie que pour avoir un système entièrement éolien / solaire en Californie sauvegardé avec des batteries, vous avez besoin de batteries pour stocker l’énergie d’avril à octobre, pour être déchargées de novembre à mars. La quantité totale de stockage nécessaire s’élève à environ 25 000 GWh par an, soit plus que le taux d’utilisation actuel d’un mois complet. Les batteries pour un tel effort – même en supposant une baisse substantielle des prix actuels – coûteront quelque chose de l’ordre de 5000 milliards de dollars, ce qui est beaucoup plus que le PIB annuel complet de la Californie. Et ces piles devront être remplacées régulièrement. Andrews en conclut que le LCOE (Leveled Cost Of Energy, coût moyen de l’énergie) éolien + solaire combiné [coût actualisé de l’énergie] sans stockage était de 50 $ / MWh.

Il a ensuite estimé les LCOE éoliens + solaires avec les coûts en capital de stockage des batteries inclus. Il s’agissait d’un exercice simple, car la réduction de la production de base + charge suivant la proportion directe à l’augmentation de la production éolienne + solaire entraîne des LCOE qui sont les mêmes quel que soit le pourcentage de vent + solaire dans le mix de production. Le calculateur NREL (outil de calcul du National Renewable Energy Laboratory US) a montré ainsi :

· Cas A LCOE [Allemagne]: 699 $ / MWh

· Cas B du LCOE [Californie]: 1 096 $ / MWh

Ces LCOE d’une valeur ruineuse sont entièrement le résultat des coûts supplémentaires des batteries de stockage, qui dans les scénarios 100% éolien + solaire approchent 5000 milliards de dollars dans le cas A [Allemagne] et le cas B [Californie], par rapport aux coûts en capital éolien + solaire de ~ 300 milliards de dollars dans le cas A et ~ 160 milliards de dollars dans le cas B. En supposant que ces coûts supplémentaires soient répercutés sur les consommateurs dans les prix de l’électricité, cela représenterait des augmentations de prix d’un facteur d’environ 14 pour l’Allemagne et de 22 pour la Californie. (La différence provient d’une saisonnalité moindre en Allemagne qu’en Californie.)

Bien qu’aucun gouvernement n’ait encore essayé de tester les calculs d’Andrews en poussant la production à partir d’énergies renouvelables bien au-delà de 50% et vers 100%, beaucoup ont choisi de pousser la production à partir d’énergies renouvelables jusqu’à 30%, et certaines juridictions expérimentales sont passées à 50 % et un peu au-delà. Des données substantielles existent pour démontrer les résultats sur le coût du système électrique résultant, et donc quel serait l’effet sur le prix pour les consommateurs en supposant que le coût total est supporté par le consommateur. (Les juridictions expérimentales n’ont jusqu’à présent pas imposé la majeure partie des coûts au consommateur, mais cette approche ne fonctionnerait probablement pas pour un pays entier.)

Le graphique suivant, initialement préparé par Willis Eschenbach du site Web WattsUpWithThat, montre la relation quasi linéaire entre la capacité renouvelable installée par habitant (en watts / habitant) sur l’axe des x et le coût de l’électricité pour le consommateur (en centimes, d’euro ou de dollar, par kilowatt-heure) sur l’axe des y, où chaque point est un pays (https://wattsupwiththat.com/2015/08/03/obama-may-finally-succeed/ :

Capture d’écran 2020-06-21 à 13.50.09

L’Allemagne est le leader en Europe dans sa production d’électricité par habitant à partir d’énergies renouvelables, à travers son soi-disant Energiewende, ayant obtenu le pourcentage de son électricité éolienne et solaire jusqu’à environ 30%, et parfois un peu au-delà. Cependant, la conséquence de cet effort a été un triplement approximatif du coût de l’électricité pour les consommateurs, à environ 30 cents par kWh (le prix moyen à la consommation de l’électricité pour le consommateur aux États-Unis est d’environ 10 cents le kWh). Les analyses de la flambée des prix de l’électricité en Allemagne attribuent faussement le surcoût qui a nécessairement été engagé pour essayer de parvenir à une stabilité fonctionnelle système du réseau 24/7 avec tant de contribution des énergies renouvelables intermittentes.

Premièrement, une capacité éolienne et solaire «excédentaire» massive a été installée pour tenter de faire face aux jours de vent léger et de nuages épais. Et pour les nuits complètement calmes et les journées d’hiver couvertes où le vent et les sources solaires ne produisent rien ou presque, presque toute la flotte de centrales à combustibles fossiles a été maintenue et prête à fonctionner, même si ces sources finissent par être inactivées souvent. En fait, depuis que l’Allemagne a fermé toutes ses centrales nucléaires pendant cette période, elle a construit des centrales au charbon supplémentaires pour sauvegarder ses énergies renouvelables. Et puis, il a fallu trouver des moyens pour faire face à l’augmentation des l’électricité lorsque le vent et le soleil soufflent soudainement et brillent ensemble à pleine puissance en même temps.

Comme l’a noté Benny Peiser à la Global Warming Policy Foundation le 4 avril 2015 (http://www.thegwpf.com/benny-peiser-eus-green-energy-debacle-shows-the-futility-of-unilateral-climate-policies/) chaque tranche de 10 nouvelles unités, exprimé en kW d’installation d’énergie éolienne doit être complétée par environ huit unités de production d’énergie fossile. En effet, les centrales à combustibles fossiles doivent se mettre en marche soudainement pour répondre aux carences des énergies renouvelables intermittentes. En bref, les énergies renouvelables ne fournissent pas d’échappatoire à l’utilisation des combustibles fossiles sans lesquelles elles ne sont pas viables. Pour éviter les pannes d’électricité, le gouvernement doit subventionner les centrales à gaz et à charbon non rentables. La taxe sur les énergies renouvelables en Allemagne, taxe qui subventionne la production d’énergie verte, est passée de 14 milliards d’euros à 20 milliards d’euros en un an seulement en raison de l’expansion féroce des projets éoliens et solaires. Depuis l’introduction du prélèvement en 2000, la facture d’électricité du consommateur allemand type a doublé.

Pour illustrer davantage la relation entre le pourcentage d’électricité d’origine renouvelable et le coût de l’électricité pour le consommateur, considérons le cas de la Californie. La Californie est un «leader» aux États-Unis dans le domaine de la production d’électricité à partir de sources éoliennes et solaires. Selon la California Energy Commission, la Californie a obtenu en 2016 8,11% de son approvisionnement en électricité à partir du solaire et 9,06% à partir de éolien, pour un total de 17,17% de ces deux sources intermittentes ( http://www.energy.ca.gov/almanac/electricity_data/total_system_power.html ) Pour l’ensemble des États-Unis, le pourcentage de production éolienne et solaire était de 6,5% : https://www.eia.gov/tools/faqs/faq.php?id=427&t=3

Selon l’Agence américaine d’information sur l’énergie, le prix moyen de l’électricité en Californie cette année-là était de 14,91 cents par kWh, contre une moyenne américaine de 10,10 cents par kWh; c’est-à-dire presque 50% plus élevé : https://www.eia.gov/electricity/monthly/epm_table_grapher.cfm?t=epmt_5_6_a.

Seules quelques petites juridictions ont tenté de faire passer le pourcentage de leur production d’électricité à partir d’énergies renouvelables bien au-delà des 30% atteints par l’Allemagne. Mais ces juridictions n’ont pas atteint des niveaux bien supérieurs à ceux de l’Allemagne, et même ces niveaux n’ont été atteints qu’à des coûts élevés et à des tarifs augmentant sans cesse pour l’utilisateur final. L’une de ces juridictions est l’île de Gapa, une petite île de seulement 178 personnes (97 maisons) en Corée du Sud. Un rapport sur le projet de l’île Gapa a été publié sur le site d’information de Hankyoreh en juillet 2016 : http://english.hani.co.kr/arti/english_edition/e_national/752623.html .

Avec une consommation électrique moyenne de 142 kW et une utilisation maximale de 230 kW, les insulaires ont installé une capacité éolienne et solaire de 674 kW – environ trois fois la consommation maximale, pour faire face au vent léger et au soleil faible. Ils ont également acheté une capacité de batterie pour environ huit heures d’utilisation moyenne. Le coût de la capacité éolienne et solaire ainsi que des batteries était d’environ 12,5 millions de dollars, soit environ 125 000 $ par ménage. Et avec tous ces investissements, les insulaires ne pouvaient encore obtenir qu’environ 42% de leur électricité du soleil et du vent en moyenne sur un mois complet. Même avec le stockage, ils avaient toujours besoin de la pleine capacité de sauvegarde des combustibles fossiles.

En appliquant un coût raisonnable du capital à un système comme celui de l’île Gapa et en considérant des éléments complémentaires du système, comme le stockage supplémentaire, qui seraient nécessaires pour pousser le pourcentage de la production totale à partir de sources renouvelables vers des niveaux plus élevés, on peut calculer qu’un système comme le projet de démonstration de Gapa pour l’ensemble des États-Unis entraînerait des prix de l’électricité d’au moins cinq fois leur niveau actuel, et plus probablement, beaucoup plus élevés. Et même alors, les États-Unis auraient du mal à obtenir 50% de l’électricité à partir des énergies renouvelables intermittentes.

Un projet de démonstration un peu plus vaste sur l’île espagnole d’El Hierro dans l’archipel des Canaries (environ 10 000 habitants) a donné des résultats similaires. L’idée sur El Hierro était de combiner un parc éolien massif avec un grand réservoir surélevé pour stocker l’eau, qui serait ensuite libérée en cas de vent faible pour équilibrer le réseau. El Hierro a la chance d’une géographie montagneuse, de sorte qu’un grand réservoir pourrait être placé à une altitude relativement élevée, à proximité des consommateurs d’électricité. L’investissement dans le système éolien / hydraulique s’élevait à environ 64,7 millions d’euros, soit environ 80 millions de dollars – ce qui s’ajoutait à ce qui était déjà un système fonctionnant aux combustibles fossiles, qui devait encore être conservé. Les opérations du projet El Hierro ont commencé en 2015 avec des attentes élevées pour une production 100% renouvelable, mais il n’est jamais arrivé à satisfaction totale : http://euanmearns.com/el-hierro-end-2017-performance-update/. En 2017, le pourcentage d’électricité produite à partir d’énergies renouvelables a varié de 62,4% en septembre à seulement 24,7% en novembre, avec une moyenne globale pour l’année d’environ 40%. Sur la base des données d’exploitation réelles, M. Andrews a calculé que, pour atteindre l’objectif de 100% de production à partir du projet éolien / hydraulique, El Hierro devrait augmenter sa capacité d’éolienne d’environ 50% et la capacité de son réservoir par un facteur de 40. De toute évidence, il n’y a pas de place sur l’île pour mettre un réservoir aussi gigantesque et s’il y en avait, le coût ne serait pas dans les millions, mais dans les milliards. Et ce serait pour seulement 10 000 personnes.

Une nouvelle mise à jour des performances du système El Hierro par M. Andrews couvrant l’année 2018 a été publiée sur le site Energy Matters le 6 janvier 2019 et peut être consultée sur le site http://euanmearns.com/el-hierro-fourth-quarter-2018-performance-update/ . En 2018, le système El Hierro a fourni 56,6% de l’électricité de l’île (qui ne représentait que 13,0% de sa consommation totale d’énergie). Cependant, la production du système a considérablement varié au cours de l’année, produisant jusqu’à 74,2% de l’électricité de l’île au 3T 2018, mais seulement 27,7% au 4T. La production d’électricité de 27,7% au quatrième trimestre ne représentait que 6,4% de la consommation totale d’énergie de l’île.

Note : outre le réservoir collinaire il existe aussi un réservoir au niveau de la mer réceptionnant l’eau après turbinage pour être ensuite pompée à nouveau en altitude à l’aide de l’énergie éolienne. Cette eau a été préalablement produite par une usine de dessalage de l’eau de mer. La majeure partie de l’investissement a été prise en charge par le Japon.

La géographie des États-Unis ne permet pas un système de stockage d’eau comme celui d’El Hierro pour la plupart des régions du pays. Comme discuté ci-dessus, l’alternative au stockage par de grosses batteries, comme le type utilisé pour les automobiles Tesla, a des coûts potentiels vraiment stupéfiants, multipliant potentiellement le coût de l’électricité par bien plus d’un facteur 10, et même bien plus que par un facteur 20.

Une telle secousse économique frapperait durement tout le monde dans le pays, à l’exception peut-être de certaines des personnes les plus riches. Même les personnes à revenu intermédiaire et supérieur seraient obligées de réduire considérablement leur consommation d’énergie. Mais les pauvres et les personnes à faible revenu seraient de loin les plus durement touchés. Si les prix de l’électricité atteignaient dix ou vingt fois les niveaux actuels, pour la plupart des personnes à faible revenu ce qu’elles tiennent pour acquis, comme la lumière, la réfrigération et les ordinateurs deviendrait alors inaccessible. Ils seraient contraints à la précarité énergétique. C’est la voie que le Plan pour l’énergie propre (aux USA), sans le sursis de la Cour suprême, nous aurait certainement emmenés – dans l’hypothèse désormais profondément discréditée que le CO2 est un polluant (voir la section II ci-dessus).

Une nouvelle étude d’IHS Markit, Ensuring Resilient and Efficient Electricity Generation: The Value of the Current Diverse U.S. Power Supply Portfolio a examiné les effets économiques des politiques énergétiques fédérales et étatiques qui éloignent les services publics d’électricité du charbon, du nucléaire pour les rapprocher de l’hydroélectricité et des énergies renouvelables. IHS Markit prévoit que ces politiques entraîneront un triplement de la dépendance actuelle de 7% à l’énergie éolienne, solaire et à d’autres ressources intermittentes, les ressources alimentées au gaz naturel fournissant la majeure partie de la production. Les conclusions de l’étude sont que les distorsions actuelles du marché induites par les politiques conduiront à un réseau électrique américain moins rentable, moins fiable et moins résilient en raison du manque d’harmonisation entre les politiques fédérales et étatiques et les opérations du marché de gros de l’électricité. L’étude prévoit que ces politiques entraîneront des hausses importantes du prix de détail de l’électricité. Les effets économiques suivants de ces augmentations de prix sont prévisibles :

La hausse de 27% du prix de détail de l’électricité associée au cas de la diversité moins efficace entraîne une baisse du PIB réel américain de 0,8%, soit 158 ​​milliards de dollars (dollars pondérés 2016). Les impacts sur le marché du travail comme conséquence de cette diversité énergétique moins efficace impliquent une réduction d’un million d’emplois et une réduction du revenu réel disponible par ménage d’environ 845 $ (dollars de 2016) par an, soit 0,76% du revenu disponible moyen des ménages en 2016. Il convient de noter que l’augmentation prévue de 27% des prix de détail moyens de l’électricité est fondée sur la part des énergies éolienne et solaire qui a triplé, passant de 7% à «seulement» environ 21%. Les études de cas examinées ci-dessus montrent très clairement les énormes augmentations des prix de l’électricité qui résulteraient de la décision des décideurs politiques de faire passer la part des énergies renouvelables à un niveau supérieur.

De plus, l’étude a révélé que la distorsion actuelle du marché, dictée par les politiques fédérales et d’État, impliquera:

une variabilité accrue des factures mensuelles d’électricité des consommateurs d’environ 22% et un coût horaire supplémentaire de 75 milliards de dollars associé à des pannes de courant plus fréquentes. L’auteur principal de l’étude a déclaré que la diversité de l’approvisionnement est un fondement essentiel pour la sécurité et la fiabilité d’un système d’alimentation électrique qui est aussi grand et diversifié – et aussi d’une importance cruciale – que celui des États-Unis. Voir http://news.ihsmarkit.com/print/node/23497

De plus, les politiques qui encouragent une utilisation accrue de l’énergie éolienne et solaire entraîneraient probablement une réduction faible voire nulle du niveau des émissions de CO2 du secteur électrique. Ironiquement, répondre aux préoccupations liées au changement climatique avec les politiques fédérales et étatiques visant à subventionner et à rendre obligatoire la production d’électricité éolienne et solaire a eu pour conséquence involontaire de fausser les prix de gros du marché de l’électricité et de provoquer la fermeture anti-économique des centrales nucléaires – une source zéro émission – en raison des fluctuations du prix de gros du kWh. Le résultat est que certaines émissions de CO2 du système électrique restent constantes ou augmentent !

Article paru sur le site manhattancontrarian.com

Prochain billet mercredi 24 juin.

Une fois encore l’Italie est le membre malade de l’Europe. Cette fois-ci la maladie est très grave et l’Europe pourrait en mourir.

Plus de la moitié des entreprises italiennes ont déclaré qu’elles feront face à un déficit de liquidité à la fin de 2020 et 38% ont signalé des «risques opérationnels et de durabilité», selon une enquête menée auprès de 90 000 entreprises par l’institut national de statistiques italien ISTAT.

Le lobby national des entreprises italiennes, Confcommercio, a récemment estimé que 60% des restaurants et autres entreprises manquaient de liquidités et 30% s’étaient plaints des coûts supplémentaires liés à la mise en œuvre de mesures de sécurité anti-contagion afin qu’ils puissent commencer à servir les clients après le confinement.

L’industrie du tourisme, qui représente 13% du PIB et a joué un rôle crucial dans le maintien à flot de l’économie italienne au cours de la dernière décennie, fournissant des emplois à environ 4,2 millions de personnes, est dans les limbes après le blocage. Les frontières se sont à nouveau ouvertes mais les touristes étrangers restent insaisissables. Et comme de nombreux résidents locaux ne sont pas en position financière pour partir en vacances cette année, il est peu probable que la demande intérieure reprenne autant que les entreprises touristiques l’espèrent désespérément.

Le tourisme était l’une des rares parties de l’économie à avoir connu une croissance ces dernières années. L’année dernière, par exemple, elle a augmenté de 2,8% tandis que la production industrielle italienne a diminué de 2,4%. Dans une économie qui n’a pas connu de croissance depuis plus de 10 ans alors que la dette publique continue de croître à un rythme effrayant, son secteur à la croissance la plus rapide vient d’être frappé par la mère de tous les marteaux.

L’industrie manufacturière italienne, qui se débattait déjà avant la crise, est également en difficulté. En avril, alors que l’Italie était en proie à l’une des plus graves mises en quarantaine d’Europe, l’indice du chiffre d’affaires de l’ISTAT a chuté de 46,9% tandis que l’indice des nouvelles commandes industrielles non ajustées a baissé de 49,0% par rapport au même mois de l’année précédente. Depuis lors, de nombreuses entreprises ont rouvert mais l’activité reste faible.

Pour surmonter l’accalmie, de nombreuses entreprises ont besoin de crédit. Mais c’est plus facile à dire qu’à faire en Italie, à moins que vous ne soyez une entreprise de plusieurs milliards de dollars. Le géant automobile Fiat Chrysler est sur le point d’obtenir un prêt de 6,3 milliards d’euros soutenu par l’État – plus que tout autre constructeur automobile européen. Même Atlantia, la société qui a exploité et entretenu le pont Morandi à Gênes qui s’est effondré en 2018 faisant 43 morts, espère obtenir du gouvernement un prêt de 1,7 milliard d’euros.

Pendant ce temps, des centaines de milliers de petites entreprises attendent toujours. Au début de la crise, le gouvernement Conti a déclaré que des garanties de dette seraient mises à disposition pour débloquer jusqu’à 740 milliards d’euros de financement pour les entreprises. Pourtant, au 20 mai, seulement 301 777 des 607 391 demandes d’assistance avaient été accordées, selon un rapport de la commission d’enquête bicamérale italienne. (Une demande acceptée ne signifie pas qu’un prêt a effectivement été accordé).

Pour les entreprises qui passent à travers les mailles du système italien de prêts d’urgence, dont beaucoup fonctionnaient parfaitement bien avant la crise des coronavirus, la tentation est de se tourner vers les requins de crédit affiliés à la mafia, qui sont plus qu’heureux d’aider. En Calabre, les Ndrangheta « arrivent initialement avec des offres de taux d’intérêt bas, car leur objectif final est de reprendre l’entreprise, via l’usure, et de l’utiliser pour blanchir leurs produits illicites », explique le procureur Nicola Gratteri.

Même avant le début de cette crise, le système bancaire à moitié brisé de l’Italie et le fouillis de paperasserie sans fin faisaient de l’obtention d’un prêt bancaire aux entreprises une tâche presque impossible – à part pour les légions de sociétés zombies qui devaient déjà aux banques d’énormes dettes qu’elles ne rembourseront jamais qui serait périodiquement restructurées. Lors de la dernière crise, la part du stock de capital industriel gaspillé dans les entreprises zombies a plus que doublé, passant de 7% à 19% entre 2007 et 2013, selon l’OCDE. Quelque chose de similaire, mais à une échelle encore plus grande, est susceptible de se produire d’ici la fin de cette crise.

Et c’est la dernière chose dont l’économie et le système bancaire italiens ont besoin. Malgré un effort de nettoyage massif ces dernières années, les prêts non performants (NPL, non performant loans) représentent toujours 7% du total des prêts de l’Italie, l’un des ratios les plus élevés d’Europe. Cela représente une baisse par rapport aux 17% d’il y a cinq ans, grâce à la titrisation massive des NPL italiens. Les investisseurs dans ces prêts non performants titrisés devraient gagner leur rendement en grande partie sur le produit de la vente de la garantie sous-jacente.

Le processus de titrisation dépendait de deux conditions fondamentales qui sont maintenant en cause : 1. la volonté des investisseurs d’investir dans des dettes toxiques tranchées et découpées en morceaux à la mode italienne et 2. la capacité des agents de recouvrement de recouvrer et de vendre les actifs sous-jacents.

Le confinement a rendu la condition 2 pratiquement impossible. Les tribunaux ont été fermés. Le marché italien du logement, où la garantie des prêts liés au logement devrait être vendue, a été bloqué. Et les agents de recouvrement n’ont pas pu joindre les emprunteurs pour négocier des paiements, même partiels, sur les prêts impayés.

Si les encaissements en Italie continuent de baisser, les revenus générés pourraient ne pas suffire à payer les investisseurs qui ont acheté les prêts non performants titrisés. Dans ce cas, selon le Wall Street Journal, les investisseurs dans les titres mezzanine et junior perdraient leurs investissements et le gouvernement italien, déjà en difficulté financière, qui garantissait les titres seniors pour rendre les transactions attractives, devrait payer une partie de la facture.

Le système bancaire italien sera bientôt englouti par une nouvelle vague de prêts non performants alors que des légions d’entreprises, de ménages et de particuliers manqueront à leur dette pendant la période postérieure au blocage. Lorsque cela se produit et que les ratios de NPL dans le secteur bancaire italien montent à nouveau en deux chiffres, tout comme le marché des NPL italiens titrisés commence à s’effriter, le système bancaire italien ne sera pas seulement de retour où il était vers 2015, il sera encore pire.

Le gouvernement italien est déjà en difficulté budgétaire. À la fin de cette année, sa dette aura déjà atteint environ 155% à 160% du PIB, contre 136% l’année dernière. C’est le résultat de trois processus simultanés : une croissance massive des dépenses publiques pour contrer la crise du virus, une chute vertigineuse des recettes fiscales et une forte baisse du PIB.

Si le gouvernement italien n’est pas en mesure de faire face au tsunami imminent de créances irrécouvrables, une aide extérieure sera bientôt nécessaire. D’autres membres de la zone euro seront dans le même bateau, c’est pourquoi la BCE parle tranquillement de créer une mauvaise banque pour «stocker» des centaines de milliards d’euros de dettes impayées. Obtenir la bénédiction de certains pays d’Europe du Nord, en particulier l’Allemagne, pour mettre en place ce projet sera une tâche difficile, en particulier compte tenu de l’impasse actuelle entre la Cour constitutionnelle allemande et la BCE. Mais pour l’économie italienne, le temps est de la plus haute importance.

Par Nick Corbishley, journaliste free-lance, paru sur le site WOLF STREET le 17 juin 2020.

Bref commentaire. La France et l’Espagne sont dans la même situation que l’Italie et si l’Union européenne ne trouve pas d’accord pour colmater les conséquences des erreurs des politiciens dans la gestion de la grippe à coronavirus alors on peut dire adieu à l’Union monétaire et à l’Europe unie qui a toujours été une union de façade.

Nouvelles coronavirales : analyse ponctuelle depuis l’archipel des Canaries

Ici comme en Espagne péninsulaire le port du masque est toujours obligatoire et la distanciation sociale est supposée de rigueur. L’assouplissement de ces mesures n’est pas encore à l’ordre du jour, peut-être au début du mois de juillet, tandis que l’industrie touristique est complètement à l’arrêt. De nombreux restaurants ne disposant pas de terrasses sont fermés et une majorité d’entre eux a baissé le rideau pour toujours. Les deux gargotes situées en bas de mon modeste meublé de location fonctionnent à nouveau depuis une quinzaine de jours mais elles ne font pas le plein de clientèle, clientèle qui a d’ailleurs tendance à se raréfier. Ceci est un signe évident de la baisse du pouvoir d’achat des Canariens dans leur ensemble ou pour être plus précis l’augmentation du nombre de personnes qui n’ont plus les moyens financiers d’aller boire un café entre amis car elles sont sans travail avec peu d’espoir d’en trouver un tant que les règles strictes ne seront pas assouplies.

Pourtant l’épidémie de grippe est terminée. Mais cette grippe dite coronavirale était-elle vraiment provoquée par ce Covid-19 ? Si on considère le résultat des tests PCR, c’est-à-dire l’identification de la présence d’ARN viral dans les fosses nasales des patients, tests mis en place dès le début du mois de mars pour toute personne présentant des signes grippaux, il est évident que la très grande majorité des sujets en état grippal souffraient de grippe non provoquée par le Covid-19 :

Capture d’écran 2020-06-18 à 17.05.54

Le vrai pic de la grippe « coronavirale » se situe entre le 15 mars et le 15 avril mais il existait simultanément une autre grippe virale comme chaque année. Je serais curieux de connaître quels sont les résultats pour d’autres pays. En effet l’examen de ce graphique (lien en fin de billet) prouve clairement que les politiciens ont pris des mesures disproportionnées et on peut se demander si lors de la prochaine grippe saisonnière il n’en sera pas de même. Plus de 300000 tests PCR ont été effectués dans l’archipel pour ne détecter que 2391 cas confirmés de présence de Covid-19 et le nombre de morts – 162 – représente un taux de létalité de 6,7 % et de mortalité de 162/2150000 soit 75 par million d’habitants pour la seule grippe à coronavirus si ces statistiques sont exactes.

Pour la distanciation sociale sur une terrasse de café tout est relatif :

DSCF6976

Source : https://www.eldiario.es/canariasahora/sociedad/coronavirus-Canarias-mapas-graficos_0_1008599481.html#grafcan