L’ « écomerdier » imposé à l’Afrique par les écolo-imperialistes

Plutôt que de brûler de la bouse de vache et du charbon de bois, pourquoi l’Afrique sub-saharienne n’aurait-elle pas de l’électricité bon marché ? C’est la question que l’on peut se poser en examinant l’état des lieux de l’Afrique. Alors que l’Inde, la Chine et le Vietnam ainsi que d’autres pays utilisent de plus en plus de gaz naturel, de charbon et de pétrole pour électrifier et moderniser leurs nations, créer des emplois et améliorer la santé, relever le niveau de vie et augmenter l’espérance de vie, pourquoi la Banque Mondiale et d’autres institutions internationales exigent des pays de l’Afrique sub-saharienne d’utiliser de plus en plus de charbon de bois pour le chauffage et la cuisine ? Pourquoi les pays africains eux-mêmes, les Nations-Unies et les organismes de défense des droits de l’homme tolèrent cette politique mortifère ?

Durant la récente « semaine du climat » l’organisme onusien IPCC a fait la promotion de la biomasse qui – selon ses affirmations – entrent déjà pour 60 % des énergies renouvelables en Europe afin de combattre le changement climatique (on ne dit plus réchauffement, au cas où …) et stabiliser le climat qui n’a jamais été vraiment stable par le passé, mais bon …

Les énergies dites renouvelables comprennent par exemple la centrale électrique de Drax en Grande-Bretagne qui brûle des « boulets » de bois provenant de millions d’arbres poussant sur des dizaines de milliers d’hectares de forêts canadiennes et américaines, détruites à jamais. Les arbres sont transformés en petites boules qui sont chargées sur des camions pour les transporter dans les ports côtiers pour être ensuite acheminées au nord du Yorkshire en Grande-Bretagne par cargos brûlant du pétrole. Du port ces granulés sont acheminés alors par train jusqu’à la centrale électrique et brûlés à la place du charbon pour générer de l’électricité. Ainsi la Grande-Bretagne peut s’enorgueillir d’atteindre l’objectif d’énergie renouvelable que les accors de Paris ont fixé. Pourtant l’ensemble de cette opération produit beaucoup plus de gaz carbonique que n’importe quelle usine similaire de production d’électricité utilisant du gaz naturel ou du charbon ! Quant aux arbres il faudra attendre 50 ans pour pouvoir à nouveau exploiter les forêts nouvellement rasées. Et on dit que c’est de l’énergie renouvelable !

Certaines organisations de protection de l’environnement ont crié au scandale quand l’IPCC a convenu que l’utilisation du charbon de bois devait être promue en Afrique sub-saharienne car cette pratique contribuait à réduite les surfaces boisées. Non seulement la production de charbon de bois, considéré comme une source d’énergie renouvelable par l’IPCC, détruit l’environnement et menace de nombreuses espèces d’animaux et de plantes mais l’utilisation du charbon de bois menace aussi la santé humaine. Le programme pour l’environnement des Nations-Unies prévoit que la demande africaine de charbon de bois, dont la production est actuellement d’environ 23 millions de tonnes par an, doublera voire triplera vers 2050. Cette production a doublé ces dernières 20 années et représente maintenant 60 % de la production mondiale de charbon de bois selon la FAO. L’urbanisation galopante a accru la demande car le charbon de bois est le combustible préféré en raison de son bas coût pour la cuisine en Afrique sub-saharienne.

Certes, le charbon de bois est plus propre et plus facile à utiliser que le bois lui-même et meilleur marché que le gaz de pétrole liquéfié ou l’électricité, c’est d’ailleurs la raison pour laquelle plus de 80 % des familles en milieu urbain utilisent le charbon de bois pour la cuisine et en milieu rural c’est 100 %. Et pourtant l’OMS (un autre organisme onusien) considère que mondialement plus de 4,3 millions de personnes meurent prématurément de maladies liées au caractère malsain de l’air des maison où est utilisé le charbon de bois pour la cuisine sur des feux ouverts ou des cuisinières qui fuient et enfument les logements. C’est plus de morts que la malaria, la tuberculose et le SIDA réunis … L’OMS a aussi noté que le manque d’accès à l’électricité pour 1,2 milliard de personnes dans le monde a pour résultat d’exposer les familles à des particules fines et aux autres produits toxiques présents dans la fumée, la cuisson mal assurée provoquant en outre toutes sortes d’intoxications alimentaires.

L’absence d’électricité disponible en abondance restreint la possibilité de lire confortablement le soir pour étudier, lire, avoir accès à un ordinateur et à internet, développer une petite industrie, des industries de plus grande taille, alimenter des hôpitaux, des écoles et des infrastructures et permettre d’améliorer la vie des personnes, la santé et la nourriture. Pourquoi 100 ans après que l’électricité ait révolutionné les sociétés occidentales il y a encore plus de la moitié de l’Afrique sub-saharienne qui n’est connectée à aucun réseau électrique ? Est-ce qu’un Américain, un Canadien, un Européen, un Australien, un Japonais et même un Chinois pourrait vivre aujourd’hui sans une électricité abondante, relativement bon marché 24/7/365 ? En 2016 la Banque Mondiale a estimé qu’à peine 42 % des logements en Afrique sub-saharienne avaient accès à l’électricité, le Rwanda atteignant 80 % mais la Guinée-Bissau à peine 30 %, laissant des centaines de millions de personnes sans électricité du tout ou seulement sur des périodes très limitées et totalement imprévisibles, alors qu’il s’agit d’une source d’énergie que nous considérons, nous Occidentaux, comme vitale.

Le site ZimbabweSituation.com indique que trois facteurs restreignent la demande en électricité dans la majorité des pays africains. D’abord la plupart des ménages et des entreprises connectées à un réseau électrique font face à des black-out à répétition en raison de la faiblesse de la production par rapport à la demande et en raison d’un réseau défectueux. Ce qui signifie que les habitants ont toujours recours au charbon de bois pour cuisiner, la conséquence étant qu’ils paient pour disposer d’électricité, quand il y en a de disponible, et qu’ils paient aussi pour se fournir en charbon de bois. (Paradoxalement c’est aussi le cas en Californie depuis la faillite de PG&E qui, si c’était un Etat indépendant, serait le plus riche du monde alors que de nombreux ménages sont revenus au bon réchaud à pétrole pour cuisiner puisqu’il y a des black-out imprévisibles partout dans cet État !).

Ensuite, alors que l’électricité constitue une large part du revenu des ménages, ces derniers ont un accès limité à cette source d’énergie. Les pays disposant d’un réseau peu développé augmentent les prix pour financer les infrastructures afin d’améliorer les réseaux. Mais des tarifs élevés se traduisent pas encore plus de charges financières, ce qui décourage les consommateurs et par voie de conséquence inhibe la création d’emplois puisque la consommation n’augmente pas et même décourage certains ménages à faire une demande de raccordement au réseau existant. En dernier lieu, le coût et la complexisté de l’extension des réseaux sont aussi des facteurs limitant l’électrification. Là où la production est insuffisante, les compagnies d’électricité retardent les connections au réseau jusqu’à ce que les infrastructures de production correspondent à la demande prévue. Le pire ce sont aussi les contraintes administratives et parfois coûtumières, par exemple pour l’installation de pilônes sur des terres communautaires, qui augmentent les coûts et donc réduisent la demande ce qui a pour effet dans certaines régions de repousser à jamais une quelconque électrification.

C’est ainsi que dans de nombreux cas le bois et le charbon de bois sont compétitifs par rapport au gaz de pétrole (quand il y en a) alors que la production de charbon de bois est gourmande en main d’oeuvre, polluante et destructrice de l’environnement. Une cuisinère moderne brûlant du bois permettrait de réduire les risques pour la santé mais la plupart des ménages ne peuvent pas s’en offrir une.

Le coût maîtrisé et la sécurité d’approvisionnement de l’électricité en Afrique sub-saharienne ne pourront être atteints qu’avec une modernisation et une expansion du réseau électrique, après viendront les usines de production d’électricité. Le regretté Steven Lyazi, qui travailla pour le Congrès de l’Égalité Raciale en Uganda, reconnut que la disponibilité en énergie solaire est une bonne nouvelle pour des millions d’Africains qui ne disposent que du bois de chauffage, des bouses du bétail et du charbon de bois pour cuisiner. Cependant, ajoutait-il, les énergies solaires et éoliennes ne sont au mieux que des solutions de remplacement vers la sécurité de l’approvisionnement en électricité, alors que, pourtant, les Nations-Unies, la Banque Mondiale et d’autres organismes politiques le préconisent : ce n’est qu’une vue de l’esprit.

« Beaucoup de personnalités », disait Lyazi, « méconnaissent que les Africains ont de grands rêves ». Juste un de ces rêves : la laison ferroviaire électrifiée de 750 km appellée Trans East Africa nécessiterait beaucoup plus d’énergie que ce que le solaire et l’éolien, qui sont des sources d’énergie intermittentes, peuvent produire.

La grande majorité des pays d’Afrique sont avides d’énergie électrique qu’elle soit d’origine nucléaire, de charbon, de pétrole ou de gaz naturel, mais les environnementalistes occidentaux, largement européens, y compris la Banque Mondiale, se sont opposé au financement de tels projets. Lyaza, qui mourut dans un accident d’autobus en 2017, pressait les pays africains pour qu’ils utilisent leurs abondantes ressources naturelles. Il encourageait les Africains à défier les écologistes européens qui ont diabolisé les combustibles fossiles carbonés et n’ont jamais encouragé les projets hydroélectriques et l’énergie nucléaire en Afrique. Il clamait que l’Uganda et d’autres pays d’Afrique sub-saharienne devraient construire des gazoducs pour alimenter des centrales électriques afin de fournir de l’électricité à autant d’habitants que possible. Aujourd’hui, les champs pétroliers et gaziers africains brûlent pour rien du gaz qui n’est pas récupéré et le pétrole est exporté pour le plus grand bénéfice d’une élite restreinte laissant des millions de gens sans énergie, appauvris et désespérés.

Pourquoi ne pas construire des centrales au charbon, des centrales nucléaires et envisager des projets hydroélectriques ? Pourquoi pas ? Pourquoi les Africains devraient-ils être condamnés à survivre dans la pauvreté en étant dominés par les écolo-impérialistes, les néo-colonialistes et les organisations de protection de l’environnement destructrices et qui ignorent totalement les droit les plus basiques des êtres humains : le droit à l’énergie, à la santé moderne, à un niveau de vie satisfaisant et à des vies décentes ?

En tant qu’ingénieur dans l’énergie nucléaire, le sud-Africain Kelvin Kemm, consultant en énergie, notait qu’il y a trop de situations diverses en Afrique et qu’une seule source d’énergie électrique pourrait être envisagée à l’échelle du continent de manière économique et sûre : les réacteurs modulaires pebble bed (PBMR) de faible puissance – 200 MWe – refroidis avec un gaz associé à une turbine Brayton en cycle fermé ou un circuit secondaire de vapeur. Ces réacteurs acceptant un combustible configuré sous formes de billes de la taille d’une balle de golf bénéficient de par leur conception d’une sécurité dite passive. Ils peuvent être construits en grande série pour un coût d’investissement modique et leur puissance est adaptée aux réseaux existants pouvant être naturellement étendus par la suite. Cette technologie est adaptable à tous les pays de l’Afrique sub-saharienne. Ce sont les pays africains eux-mêmes qui doivent faire ce choix et non pas des pays étrangers qui leur fassent subir chantages et pressions politiques. Les pays africains ne doivent pas rester dans l’ignorance et être obligés de ne se contenter que de charbon de bois, ce que les écolo-impérialistes occidentaux leur imposent pour l’instant …

Traduction d’un article de Duggan Flanakin, à la tête de la recherche stratégique au Commitee for a Constructive Tomorrow. Il a étudié les régulations environnementales pendant des décennies. Note. Le PBMR a été abandonné par l’Allemagne qui fut initialement le pays le pays le plus avancé dans cette technologie. Seule la Chine a pour l’instant perduré dans cette voie avec la construction d’un prototype PBMR, l’HTR-PM, d’une puissance thermique de 250 MW, soit d’une puissance électrique d’environ 100 MW. Deux réacteurs modulaires alimenteront une unique turbine entrainant un alternateur d’une puissance nominale de 210 MW électriques. Cette installation doit être opérationnelle au début de l’année 2020. La génération future envisagée par la Chine est un PBMR refroidi par de l’hélium, de l’azote ou du CO2 entrainant une turbine Brayton. Les avantages de ce type de réacteur sont multiples. En cas de défaut de quelque nature que ce soit le réacteur est vidé de son combustible qui est réparti dans une aire de stockage compartimentée et facilement refroidie, la fission prenant alors instantanément fin. La technologie de production du combustible est connue et beaucoup plus aisée que celle d’un PWR classique qui requiert des assemblages de tubes et la mise en forme du combustible sous forme de pastilles. Le rechargement en combustible peut se faire de manière continue, ce qui n’est pas le cas de tous les autres réacteurs nucléaires existants. Enfin, outre de l’oxyde d’uranium-235 servant dans ce cas de producteur primaire de neutrons sous forme de billes, ce type de réacteur peut aussi accepter du thorium comme combustible. Voir par exemple : https://en.wikipedia.org/wiki/Pebble-bed_reactor et le billet de ce blog du 16 décembre 2017.

Utérus artificiel : les progrès sont sans limite !

Capture d’écran 2019-10-21 à 12.03.35.png

Pour l’instant il s’agit d’un projet spéculatif mais il pourrait se concrétiser dans les 5 prochaines années selon ses promoteurs. Il s’agit d’un utérus artificiel qui sera capable d’accueillir des enfants – on devrait plutôt dire des foetus extrêmement prématurés, environ 24 semaines – pour les installer dans un milieu liquide reproduisant le liquide amniotique et le cordon ombilical étant relié à une machine oxygénant le sang artériel et apportant tous les éléments nécessaires à la croissance du foetus avec un retour du sang détoxifié et chargé à nouveau en oxygène. Les premiers essais réalisés au Maxima Medical Center à Veldhoven aux Pays-Bas sous la direction du Docteur Guid Oei ont déjà montré des résultats encourageants avec des foetus de chêvre pour prouver la validité du procédé.

Outre le fait que ce type d’appareillage pourra être utile pour maintenir en vie ces foetus extrêmement prématurés dont les poumons immatures ne peuvent pas supporter l’oxygène de l’air il pourrait aussi être mis à profit pour éventuellement servir d’ « utérus pour autrui », une alternative à la si décriée grossesse pour autrui pour des femmes ne pouvant pas porter leur propre enfant pour des raisons médicales. Cette technologie peut également intéresser les couples homosexuels. Il reste à considérer la position des comités d’éthique, un aspect de ce problème qui n’a pas l’air d’effleurer le législateur batave. En effet, l’euthanasie a été officiellement admise par la loi aux Pays-Bas et cette loi a été assortie d’une obligation pour les familles de ne pas pouvoir s’opposer au prélèvement d’organes consécutivement à l’acte d’euthanasie réalisé en milieu hospitalier. La vidéo (en anglais) est instructive : le stade de la fiction du « Meilleur des Monde » (A. Huxley) est sur le point d’être dépassé : https://youtu.be/1VoK8ikfyIg

Source : BioEdge

Petite histoire pas du tout fictive : un black-out généralisé en Europe occidentale ?

La ville de Caracas et ses environs ont connu il y a quelques mois un black-out pendant plusieurs jours créant un chaos indescriptible. La population était heureusement habituée aux coupures d’électricité récurrentes depuis plusieurs années mais jamais un tel black-out avait duré aussi longtemps. En Californie, l’Etat le plus riche des USA, la compagnie de gaz et d’électricité PG&E, en faillite, a organisé lors d’un épisode de vents violents des black-out partiels concernant tout de même parfois plus de 200000 foyers. La raison incroyable pour un Etat aussi riche est l’état de délabrement avancé du réseau de distribution électrique basse et moyenne tension pouvant provoquer des incendies comme ce fut le cas il y a un an au nord de l’agglomération de Los Angeles. Mais que se passerait-il si un black-out généralisé s’étendait à toute l’Europe occidentale ?

Presque tous les pays européens sont interconnectés et un défaut sur une partie du réseau provoqué par une trop forte demande en énergie ou au contraire une trop forte charge sur ce réseau provoquerait très rapidement un black-out général par un enchainement incontrôlable de défauts. Un défaut peut aussi être provoqué par des conditions météorologiques extrêmes comme par exemple de très fortes chutes de neige. La neige peut en effet s’agglomérer sur les conducteurs électriques aériens et provoquer par son poids une chute ou une rupture de ces derniers. Enfin une forte tempête magnétique solaire peut provoquer un black-out total sans oublier naturellement une ou plusieurs attaques terroristes ciblées sur des centres de dispatching stratégiquement importants.

Capture d’écran 2019-10-21 à 17.48.54.png

La première conséquence du black-out est une déconnection de toutes les usines productrices d’électricité du réseau car elles ne peuvent plus « évacuer » l’énergie produite puisque ce réseau est devenu soudainement inopérant. Les centrales électriques utilisant du gaz naturel présentent les inconvénients les moins critiques car elles peuvent être mises à l’arrêt en quelques minutes et il est possible de rétablir leur fonctionnement tout aussi rapidement. Pour les usines utilisant du charbon et du fuel lourd la situation n’est pas critique car les chaudières produisant de la vapeur ont une inertie thermique relativement peu élevée. Ce n’est pas le cas des centrales nucléaires. Les barres de contrôle et l’injection de borate dans le circuit de refroidissement primaire vont stopper la fission mais l’inertie thermique de l’ensemble du combustible et de la cuve du réacteur est grande. Une mise à l’arrêt va nécessiter un refroidissement rapide et continu du coeur du réacteur tant que le réseau électrique sera incapable d’accepter de l’énergie.

La reconstruction du réseau est progressive car il est impératif de rétablir les capacités de stabilité du réseau électrique. En effet, afin d’éviter tout risque de nouvelle instabilité il faut adapter la demande à la production électrique et le rétablissement du réseau ne peut en aucun cas être atteint en quelques heures. Or compte tenu des capacités de réserve de production, dans le cas présent les petits systèmes de production en particulier hydroélectriques, au delà de trois jours de black-out la situation devient de plus en plus critique et la reconstruction du réseau de plus en plus longue et difficile. C’est la raison pour laquelle un black-out généralisé sur l’Europe occidentale aurait des conséquences incalculables sur l’ensemble des populations et de l’économie.

Capture d’écran 2019-10-21 à 18.17.27.png

Les centrales nucléaires ne peuvent redevenir capable de produire de l’électricité rapidement que, et uniquement, si le black-out n’a pas été trop long. Au delà de 5 jours d’arrêt il faudra autant de jours pour produire à nouveau de la vapeur de qualité suffisante pour que les turbines puissent fonctionner et ainsi de suite. Seules les usines fonctionnant avec du gaz naturel pourront rapidement être reconnectées au réseau en reconstruction progressive. Compte tenu de la taille du réseau électrique européen le rétablissement intégral de ce dernier pourrait nécessiter plusieurs jours en étant optimiste. Les spécialistes dans ce domaine sont très diserts car il ne faut pas affoler les populations. Certains ingénieurs de l’armée suisse ont levé un coin du voile et c’est tout simplement terrifiant.

Capture d’écran 2019-10-21 à 18.18.44.png

Quelles peuvent être les conséquences d’un black-out ?

Immédiatement la population est confrontée à une totale impossibilité d’effectuer toute une série d’opérations de base comme par exemple se nourrir : ni les fours à micro-ondes ni les réfrigérateurs ne fonctionnent. Les distributeurs de billets et les lecteurs de carte de paiement sont inopérants, les feux de signalisation dans les villes sont éteints et il devient rapidement très difficile de se déplacer dans les villes. Il n’y a plus d’eau puisque les pompes ne fonctionnent plus, plus de gaz naturel puisqu’il n’y a plus de pompes et de compresseurs opérationnels, plus de téléphones fixes ou portables, plus d’informations. La nuit les villes sont plongées dans l’obscurité totale et par mesure de sécurité les forces de police et les militaires imposent très rapidement un couvre-feu strict afin de prévenir tout vandalisme ou pillage puisque les systèmes d’alarme ne fonctionnent plus. La plupart des entreprises industrielles sont à l’arrêt, les hôpitaux ne fonctionnent plus qu’à petite vitesse pour éviter au maximum d’épuiser leurs réserves de carburant pour l’alimentation des groupes électrogènes. En effet, la distribution de carburants est devenue également totalement arrêtée. La situation ne peut qu’empirer au point de devenir dangereuse socio-économiquement parlant au fur et à mesure que le black-out se prolonge.

Toute la société se paralyse progressivement et c’est inévitable. Personne, aucun pays, aucun gouvernement, aucun politicien n’a pris une quelconque mesure à l’échelle d’une population en cas de black-out durant plus de trois jours, ce qui est un minimum dans le cas de l’ensemble du réseau européen. Très rapidement, en quelques jours seulement, s’installera dans la population un autre aspect terrifiant : le stress alimentaire combiné à la pénurie de carburant et à la totale absence des réseaux de distribution des denrées alimentaires. En quelques jours seulement la plupart des produits de première nécessité disparaissent. Par exemple en Suisse les ménages disposent de trois jours de nourriture, à Bordeaux un jour seulement et à Paris moins d’une journée.

Capture d’écran 2019-10-21 à 18.57.06.png

Une autre conséquence inattendue mais jamais abordée est la perte totale de la mémoire des banques de données dépendant d’une alimentation électrique fiable pour rester fonctionnelles autant dire que le jour où il redevient possible d’accéder à internet on s’aperçoit que tout a disparu ! Tous les utilisateurs du « cloud », que ce soit des particuliers ou des entreprises seront vraiment désappointés. Je laisse à mes lecteurs le soin d’imaginer ce qui se passerait en cas de prolongement au delà d’une semaine. Je ne suis pas collapsologue mais un « simple » black-out de quelques jours en Europe occidentale aurait des conséquences tout simplement terribles que personne n’ose aborder.

Au sujet de possibles « cyber-attaques » pouvant perturber une centrale nucléaire, je rassure tout de suite mes lecteurs car l’ensemble des système informatiques de pilotage des centrales nucléaires – je parle ici de la France – sont totalement indépendants du réseau internet. Pour EDF en France il existe un réseau « intranet » hautement sécurisé par lequel sont acheminés les ordres de pilotage de puissance des installations hydroélectriques et de certains réacteurs nucléaires dont la puissance est pilotable à +5/-5 % de leur puissance opérationnelle réglée à 95 % de la puissance nominale. Ce réseau intranet propre à EDF est lui-même isolé du réseau internet transnational. Juste une dernière remarque à ce sujet : la privatisation programmée des ouvrages hydroélectriques français ressemble à une haute trahison permettant à des acteurs privés d’interférer avec le fonctionnement de l’électricien national (EDF), la seule entreprise française encore en bonne santé … mais pour combien de temps.

Inspiré d’une conférence présentée à l’INRIA de Grenoble en France par Grégoire Chambaz, ingénieur membre de l’armée suisse. Illustrations tirées de cette conférence : youtube.com/watch?v=u9sau9f1FCM

Stockage de l’électricité : peut-être des solutions, mais pas avant 10 ans.

Les énergies dites renouvelables ou « vertes » , plus précisément les énergies éoliennes et photovoltaïques, partagent le même inconvénient : elles sont intermittentes. Pour une société moderne comme dans la plupart des pays de l’OCDE les énergies intermittentes ne sont pas acceptables car elles n’assurent pas le bon fonctionnement de la société. En effet ces sociétés « fonctionnent » 24 heures sur 24 que ce soit la vie d’une grande ville ou la production d’acier, de verre ou de ciment. Pour assurer la disponibilité en énergie électrique 24h/24 puisque c’est ce dont il s’agit ici les énergies intermittentes ne peuvent être incluses dans ce que les théoriciens appellent le « mix » énergétique que si, et seulement si, des capacités de stockage existent. Ces capacités de stockage doivent être capables de fournir à la demande de l’énergie à haute densité (cf. note en fin de billet) afin d’éviter toute perturbation du réseau électrique existant lui-même, dans la majorité des cas, maintenu à l’équilibre par des sources d’énergie haute densité comme les usines de production, que celles-ci utilisent du charbon, des fractions lourdes de pétrole, de l’uranium ou encore du gaz naturel. Il y a donc conceptuellement un problème technique si on veut injecter dans le réseau électrique des sources d’énergie basse densité comme le sont ces énergies renouvelables.

À ce jour il n’existe pas de systèmes de stockage autre que les retenues d’eau en altitude alimentées (et reconstituées) par pompage. Les énergies basse densité peuvent être mises à profit pour pomper de l’eau en altitude quand il y a du vent et/ou du soleil. Malheureusement la configuration géographique n’est que très rarement favorable pour réunir les conditions de proximité de ces sources d’énergie intermittentes avec des sites de stockage d’eau en altitude. Il faudrait, en effet, dans le meilleur des cas, que l’énergie électrique basse densité provenant de panneaux photovoltaïques ou de moulins à vent soit acheminée par une réseau dédié aux pompes de relevage de l’eau. Dans les plaines du nord de l’Allemagne recouvertes aujourd’hui d’une immense forêt de moulins à vent où se trouvent les reliefs montagneux permettant de mettre en place des stockages d’eau en altitude ?

L’unique autre solution de stockage est la mise en place de gigantesques batteries d’accumulateurs auxquelles sont adjoints des onduleurs puissants et des transformateurs géants capables d’injecter dans le réseau électrique existant une puissance soutenue de haute densité sous une tension de 450000 volts. On est loin, très loin, d’atteindre une telle configuration pour toutes sortes de raisons techniques. L’un des goulots d’étranglement majeurs interdisant le stockage de l’électricité à l’aide de batteries d’accumulateurs tient à la rareté des matières premières pour la fabrication de tels accumulateurs. Les piles les plus performantes à l’heure actuelle sont celles dites lithium-ion or les disponibilités en lithium économiquement rentables sont limitées. S’il y a un point positif dans les recherches scientifiques financées dans le cadre du « changement climatique » ce sont bien celles relatives à la mise au point d’accumulateurs électriques plus économiques faisant appel à des matériaux bon marché pour leur fabrication à très grande échelle afin de trouver une utilisation rationnelle et si possible rentable des énergies intermittentes dites « vertes ».

Capture d’écran 2019-10-19 à 09.54.02.png

C’est une collaboration improbable entre l’Université de Technologie Chalmers à Gôteborg en Suède et l’Institut national de Chimie de Slovénie à Ljubljana qui est sur le point de mettre la dernière touche à la mise au point de nouvelles batteries économiques. L’anode de la batterie est constituée d’aluminium, le métal le plus abondant dans la croute terrestre avec le silicium, et la cathode est une nano-structure organique composée d’anthraquinone recouvrant le conducteur final constitué de graphite. Cet arrangement permet une beaucoup plus haute densité électrique que le graphite seul. Il reste à résoudre l’optimisation de l’électrolyte afin d’atteindre la même densité d’énergie que celle des batteries lithium-ion. Les travaux en cours sont très prometteurs car ils mettent à profit le fait que l’aluminium est un métal trivalent alors que le lithium est monovalent. En d’autres termes chaque ion aluminium « compense » plusieurs électrons alors que l’ion lithium n’en « compense » qu’un seul. Il est raisonnable d’espérer que de telles batteries puissent être produites industriellement au cours des années 2020.

Est-ce que ce nouveau type de batteries sera « LA » solution pour stocker les énergies électriques intermittentes ? Il faudra attendre encore une dizaine d’années pour avoir un retour d’expérience tant économique qu’industrielle.

En conclusion les bonnes « vieilles » usines de production électrique, qu’elles utilisent du charbon ou de l’uranium, ont encore de beaux jours devant elles et choisir des transitions énergétiques aberrantes comme l’Allemagne ou la France est beaucoup trop prématuré tant que ces solutions de stockage ne seront pas disponibles à très grande échelle afin de permettre de produire une énergie électrique de haute densité à partir du vent et du soleil …

Note. La « densité » énergétique est un terme impropre qui traduit la puissance disponible. Celle-ci s’écrit P = U x I où P est la puissance en Watts, U le potentiel exprimé en Volts et I L’intensité exprimée en Ampères. Plus les grandeurs physiques U et I sont élevées plus la « densité » d’énergie est élevée. Un laminoir industriel pour profiler des rails de chemin de fer par exemple nécessite une énergie de 100000 kW. L’électrolyse de l’alumine pour produire l’aluminium métal est effectuée à l’aide d’un courant continu de 4,2 volts et 350000 ampères soit 1,47 MW !

Source et illustration : Chalmers University et doi : 10.1016/j.ensm.2019.07.033

Les centrales nucléaires flottantes : un bel avenir potentiel.

Capture d’écran 2019-10-06 à 12.36.55.png

Le 14 septembre dernier l’Akademik Lomonosov, parti de Mourmansk, a atteint Pevek, son port de destination dans la Chukotka à l’extrême nord-est de la Sibérie parcourant 4700 kilomètres dans les eaux glacées de l’Arctique. L’Akademik Lomonosov est une centrale nucléaire flottante constituée de deux réacteurs KLT-40S du même type que ceux se trouvant dans les brise-glace à propulsion nucléaire capable de générer 70 MW électriques et 50 Gcalories/heure d’énergie thermique ce qui est suffisant pour assurer la consommation électrique d’une ville de 100000 habitants ainsi que le chauffage de l’ensemble des habitations.

L’A. Lomonosov, vaisseau de 144 mètres de long et 30 mètres de large, déplace 21500 tonnes et comprend un équipage de 69 personnes. Les deux réacteurs conçus par OKBM Afrikantov ont été assemblés à l’institut de recherche et développement de Nizhniy Novgorod. Les cuves, générateurs de vapeur et turbines sont de conception russe. La durée de vie prévue de cette centrale électrique flottante et prévue être d’au moins 40 ans. Le rechargement en combustible – de l’uranium enrichi – s’effectuera tous les 12 ans ce qui nécessitera le retour du navire à Mourmansk, son port d’attache, qui dispose d’installations spécialisées pour gérer et retraiter le combustible des quelques 12 brise-glace nucléaires russes.

La compagnie d’énergie nucléaire russe Rosatom étudie déjà une deuxième génération de centrales nucléaires flottantes équipées de deux réacteurs RITM-200M d’une puissance totale de 100Me. La Russie opère 41 réacteurs nucléaires répartis sur 9 sites. Onze de ces réacteurs sont du type Chernobyl et deux autres, opérationnels, sont des surrégénérateurs, un troisième réacteur de ce type étant en construction. Sept autres réacteurs seront bientôt opérationnels. L’A. Lomonosov s’ajoute donc à cette liste et place la Russie parmi les leaders mondiaux de l’énergie nucléaire civile. L’avantage du réacteur nucléaire flottant réside en trois points. D’une part il s’agit de l’application directe d’une technologie éprouvée avec les brise-glace nucléaires, d’autre part la mobilité de ce type de source d’énergie présente de nombreux avantages. Par exemple ce type de petite centrale nucléaire modulaire (la production en série de tels réacteurs peut être envisagée) peut être installé sur un fleuve, par exemple parmi ceux traversés par la ligne ferroviaire du trans-sibérien, dans une région trop sismique pour envisager la construction d’une centrale nucléaire comme dans la péninsule du Kamtchatka à très forte sismicité ou encore pour suppléer en énergie des villes isolées des réseaux existants comme le gisement de gaz Shtokman dans la mer de Barentz ou encore le développement des sites gaziers et pétroliers de la Péninsule de Yamal. Mais Rosatom pourrait aussi équiper des villes comme Sebastopol, Novorossiysk ou Vladivostok avec de telles installions en supplément des infrastructures existantes.

Les applications de tels réacteurs modulaires flottants sont multiples comme par exemple dans l’archipel du Cap Vert en fournissant, outre de l’électricité, de l’eau par dessalage de l’eau de mer. En effet le A. Lomonosov dispose à bord de sa propre unité de dessalage d’eau de mer et l’archipel du Cap Vert souffre cruellement du manque d’électricité mais également d’eau potable et pour l’irrigation. Ce type de petite unité de production électrique est donc promis à un avenir non négligeable qui pourrait changer profondément la perception de la production d’énergie dans de nombreuses parties du monde.

Source : ZeroHedge

Notes. Les réacteurs KLT-40S sont des réacteurs à eau pressurisée utilisant de l’uranium enrichi à 14,1 % pour se conformer aux traités de non-prolifération des armements nucléaires. Les réacteurs utilisant de l’uranium enrichi jusqu’à 90 % sont réservés aux sous-marins car ils sont très compacts.

Accueillant des visiteurs je ne pourrai peut-être pas assurer une mise en ligne régulière de billets sur ce blog dans les prochains jours. Que mes fidèles lecteurs m’en excusent.

L’Allemagne et le Japon font la course pour savoir qui dénucléarisera son pays le premier.

Ce titre serait complet si on ajoutait aussi la France dont les décideurs ont arrêté leur agenda : fermer la centrale de Fessenheim et 18 autres « vieux » réacteurs pour les remplacer par des moulins à vent.

Le gouvernement japonais a récemment annoncé que les 7 autres réacteurs nucléaires du site de Daiichi (Préfecture de Fukushima) touché par le séisme et le tsunami du 11 mars 2011 ne seraient jamais remis en exploitation. Cette décision ramènera le nombre total de réacteurs nucléaires à 33 contre 54 en 2011 dont seulement 7 sont actuellement en fonctionnement et raccordés au réseau et 2 autres en cours de démarrage. Contrairement aux idées reçues ce n’est pas une bonne nouvelle car depuis le tsunami de 2011, qui a coûté la vie à 18000 civils, l’opinion populaire confond cet évènement avec « la crise nucléaire » au Japon. La peur du nucléaire a ensuite envahi les esprits dans le monde entier entrainant une attaque de cette forme d’énergie non carbonée d’une telle ampleur que jamais un quelconque mouvement écologiste anti-nucléaire comme Greenpeace aurait pu organiser à cette échelle planétaire.

Le Japon est devenu la troisième économie mondiale en raison de son engagement en faveur du progrès scientifique et technologique et de son adoption précoce de l’énergie nucléaire mais a perdu depuis 2011 une grande partie de son auto-suffisance énergétique alors que plus de 25 % de son électricité provenait du nucléaire. La part du nucléaire est tombée aujourd’hui à 3 %. Depuis cet abandon du nucléaire en grande partie en raison de la réticence des populations le Japon a été contraint d’augmenter massivement ses importations de pétrole, de gaz naturel et de charbon en important 9 millions de barils par jour (équivalent pétrole) et en construisant à la hâte 45 nouvelles centrales électriques au charbon. Cette dépendance a non seulement été soumise aux marchés spéculatifs mais également à la stabilité incertaine de la production pétrolière au Moyen-Orient.

En raison de l’hystérie provoquée par l’accident de Fukushima l’Allemagne n’a pas tardé à suivre la vague de peur et a déclaré que sa sortie complète du nucléaire d’ici 2022 l’amènerait à augmenter considérablement ses importations de combustibles fossiles en provenance de Russie et des USA mais également des Pays-Bas et également, ironiquement, l’importation d’électricité depuis la France dont la production électrique provient à plus de 70 % de l’énergie nucléaire. En 2022 l’Allemagne aura perdu 11 % de sa capacité de production d’électricité, soit 22 GW.

Le fait est qu’à ce jour pas un seul décès n’a été imputé aux radiations. Une fusion des coeurs de deux réacteurs a été provoquée par le non respect de normes de sécurité par la société TEPCO qui n’a pas installé les groupes électrogènes à l’abri d’un éventuel tsunami alors que ces derniers auraient pu alimenter les pompes primaires de refroidissement afin d’éviter ce désastre une fois que l’alimentation électrique a immédiatement été perdue après le tsunami. Quant au nombre de morts attribués à tort à la catastrophe nucléaire elle-même, ils sont à déplorer auprès des « réfugiés nucléaires », c’est-à-dire les 160000 personnes déplacées des zones contaminées par les explosions (feux d’hydrogène avec émissions de matières radioactives). Certaines villes et villages sont encore abandonnés en raison des niveaux de radiations essentiellement provoquées par les retombées de césium-137, émetteur gamma de demi-vie égale à 30 ans. Cependant, après des tests approfondis de grande envergure, l’OMS a découvert que les niveaux de radiation dans les agglomérations des personnes évacuées étaient indétectables, ce qui, pourtant, n’a pas vraiment contribué à inverser les craintes profondément ancrées au sein de la société japonaise.

Les effets positifs des rayonnements de faible dose.

Pour établir une comparaison tous les essais nucléaires aériens menés au cours des années 1950-1960 ont déversé dans l’atmosphère et les océans plus de 100 fois plus de déchets radioactifs que ceux rejetés par l’accident de Fukushima-Daiichi. Dans l’Etat de l’Utah les radiations au cours des années 1950 étaient bien bien plus de 100 fois supérieures au pires moments de la catastrophe japonaise en raison des tests nucléaires. Pourtant cet Etat américain connaît le taux de cancers le plus bas de tous les Etats américains depuis plus de 60 ans. Il convient également de noter que les scientifiques qui ont étudié les survivants des bombardements de Hiroshima et de Nagasaki ont été surpris de découvrir parmi ces survivants une durée de vie anormalement longue et des taux de cancers faibles.

Aujourd’hui, quant à la radioactivité décelée dans les poissons dont le thon et les fruits de mer japonais, les niveaux de radiation sont bien en dessous des limites de 1200 Becquerels fixés par la FDA américaine, inférieurs dans tous les cas à la radioactivité contenue dans une banane ou celle qu’un voyageur subit dans un avion. Croyez-le ou non mais une banane, riche en potassium, est radioactive et émet des rayonnements beta-moins et gamma et pourtant la banane est considérée comme excellente pour la santé (cf. les billets des 11 et 24 août 2013 sur ce blog). Ce rayonnement radioactif est considéré comme un « rayonnement de faible dose » que l’on retrouve dans toutes les formes de vie sur la Terre.

L’erreur de la décarbonisation.

Pour ceux qui, comme en Allemagne, au Japon mais aussi en France célèbrent que la sortie du nucléaire offre une opportunité unique d’adopter les énergies solaire et éolienne, une triste claque s’est produite. La réalité est que les coûts de l’énergie ont non seulement augmenté en flèche (et vont continuer à augmenter) partout où des sources d’énergie « verte » ont été installées mais les déchets toxiques … et radioactifs ! générés par la production de cellules photovoltaïques et d’éoliennes dépassent de loin toutes les productions du réacteur nucléaire le plus sale. En 2017 le Ministère japonais de l’environnement a averti qu’en 2040 le Japon accumulerait plus de 800000 tonnes de déchets de panneaux solaires sans qu’il y ait une solution pour les éliminer. Les panneaux solaires ont une espérance de vie de 25 ans après quoi leur élimination devient presque impossible car ils contiennent des métaux lourds toxiques ou cancérigènes comme le cadmium, les mêmes que ceux trouvés dans les ordinateurs et les téléphones portables.

En réfutant la définition même de l’ « énergie renouvelable » les éoliennes, aussi hautes qu’un Boeing 747 est long, sont incapables de produire de l’électricité avec une densité d’énergie suffisante pour fondre et laminer de l’acier, ce matériau nécessaire à la fabrication du mât de l’éolienne. C’est la raison pour laquelle le célèbre programme allemand de réduction des émissions de carbone a abouti en moins de dix ans à un échec total : pas de réduction des émissions de carbone, flambée des prix de l’électricité et destruction massive des écosystèmes. Le groupe de réflexion Frontier Center a récemment commenté la débâcle énergétique allemande en ces termes :

« La construction des fermes solaires et éoliennes a déjà dévasté massivement les biotopes, les terres agricoles, les forêts anciennes et les villages historiques de l’Allemagne. Aujourd’hui le nord de l’Allemagne ressemble à un énorme parc éolien et si vous multipliez par 10 ou 15 la capacité éolienne actuelle un éolienne de 200 mètres de haut devra être installée tous les 1,5 kilomètres partout, dans tout le pays, dans les villes, sur les terres, les montagnes et dans l’eau« .

La radioactivité est naturelle !

L’idée que les radiations sont mortelles a été répandue par un lobby malthusien qui a promu la notion absurde que toutes les doses de radioactivité sont mortelles selon la théorie du modèle linéaire sans seuil (LNT, Linear No-Threshold model) adopté comme standard en médecine en 1959. Cette hypothèse stipule sans apporter de preuves que si une forte dose de radiations vous tue 100 % du temps, une fraction de cette dose vous tuera une fraction du temps … ce qui revient à affirmer selon ce modèle que si vous buvez 100 litres d’eau cela vous tuera 100 % du temps – ce qui est exact – et que boire un litre d’eau vous tuera 1 % du temps ! Nicolas Fisher, expert nucléaire à la Stony Brook University de New-York, a réagi à cette peur infondée en rappelant à ses lecteurs que  » nous vivons sur une planète radioactive dans un univers radioactif. Toute la vie depuis son apparition sur Terre a évolué en présence de radioactivité naturelle « . Sans ce rayonnement naturel émis par les étoiles, les supernova, le sol de la Terre, et les rayons cosmiques …, nos fonctions cellulaires s’effondreraient et nous tomberions malades. Ce n’est pas une affirmation à la légère : elle a été démontrée en isolant des rats de toute radiation ambiante y compris celle présente dans leur nourriture. Ils sont devenus malades. Depuis des générations des personnes souffrant d’arthrite et même de cancers se soumettent à des bains dans des eaux minérales radioactives comme en Ukraine ou en séjournant sur les plages de sable noir radioactif au nord-est du Brésil. Ceci prouve bien que les radiations à faible dose sont bénéfiques pour la vie. Une étude réalisée en 2010 concernant 250000 travailleurs du secteur du nucléaire a montré que le taux de mortalité par cancer était significativement inférieur à celui de groupes témoins.

La peur de la radioactivité

La peur des radiations et par conséquent de l’énergie nucléaire est une fraude mise en avant par un lobby malthusien qui a pour objectif de démanteler les Etats-nations souverains en contraignant ses victimes à détruire le propre fondement de leur existence. Il s’agit de la concrétisation de la politique de la Commission Trilatérale annoncée par le Président de la réserve fédérale américaine, Paul Volker, qui, reprenant les principes du Club de Rome, préconisait une « désintégration contrôlée » de la civilisation industrielle dès 1978. Maurice Strong a appliqué ce programme pour démanteler l’industrie électro-nucléaire canadienne dans les années 1990 tout en prêchant l’effondrement de la civilisation industrielle. C’est cette politique qui est coeur du « Green New Deal » répandue par les banquiers londoniens dont en tête Mark Carney (d’origine canadienne) appuyés par le Prince Charles, Président honoraire de Greenpeace. Cette politique porte un autre nom : la dépopulation. C’est ce programe qu’ont rejeté la Russie et la Chine avec la mise en place de l’initiative « Belt and Road ». La Chine a d’ors et déjà planifié le triplement de son parc nucléaire d’ici 2032 pour alimenter son vaste programme de croissance. L’ambitieux programme nucléaire russe fait écho aux récentes déclaration du Président Poutine contestant l’ordre libéral malthusien occidental. Toute nation engagée dans un programme de développement, à élever le niveau de vie de ses citoyens et à promouvoir la productivité et la richesse de son peuple ne peut tolérer, ne serait-ce qu’une minute, ni un plan de décarbonisation de son économie ni un plan de dénucléarisation de celle-ci.

Note. La « Commission Trilatérale » fut créée en 1973 par son premier président David Rockfeller III. Elle accueillit très vite comme conseiller Zbigniew Brzezinski. Un grand nombre des membres de la Trilatérale étaient également membres du Club de Bilderberg. Si le Japon fit aussi partie de la Trilatérale c’est parce que cet organisme s’inspira du « modèle japonais » d’après-guerre qui réussit à passer d’un système encore semi-féodal à une économie scientifico-indutrielle très avancée en quelques années. Maurice Strong, industriel d’origine canadienne, fut l’initiateur de la mise en place de l’IPCC avec l’appui de la Trilatérale et de la Fondation Rockfeller. Si vous voulez tout savoir sur Maurice Strong voici un lien décoiffant : https://www.alterinfo.net/Mort-de-Maurice-Strong-l-escroc-du-rechauffement-climatique-anthropique_a119354.html

Traduction d’un article de Matthew Ehret paru sur le site Strategic Culture (strategic-culture.org). Pas de billet dimanche 6 octobre

USA : la « beauté » du gaz de schiste pour sauver le climat est un leurre

Capture d’écran 2019-06-07 à 16.24.39.png

Avec 52 dollars le baril à la bourse de New-York et un prix du gaz naturel parallèlement en chute libre les industriels du pétrole et du gaz de roche mère (schistes) aux Etats-Unis sont aux abois. Déjà criblés de dettes (qui ne seront jamais remboursées à moins que l’Iran bloque le détroit d’Ormuz) ils sont condamnés à brûler le gaz naturel qui jaillit mélangé à du pétrole des forages pratiqués dans le Bakken et les schistes permiens. En effet il n’existe pas d’infrastructures pour transporter ce gaz par gazoduc vers les usines de liquéfaction situées au Texas, sur la côte du Golfe du Mexique. Pour les trois premiers mois de l’année 2019 quelques 660 millions de pieds-cube de gaz ont été tout simplement brûlés et les fumées répandues dans l’atmosphère.

Pour les non-spécialistes dont je fais partie un pied-cube représente 0,0283 mètre-cube mais dans l’industrie gazière il représente le nombre de molécules de gaz naturel étant entendu que ce gaz – dont le gaz de schiste – ne contient pas nécessairement que du méthane. La cotation en bourse du gaz naturel s’exprime sur la base du million de pieds-cube dont le symbole est MMcf ou millier de milliers de pieds-cube. Dans les conditions standard de pression et de température (288 °K et 101,56 kPa) un pied-cube contient 1,198 gramme de molécules de gaz naturel. Dans le bassin permien plus de 20 % du gaz provenant des forages a été brûlé en 2018. Dans l’Etat du Dakota du Nord les autorités ont fixé une limite à cette pratique qui est selon la loi de 15 % du gaz provenant des forages. Or toutes les entreprises ont outrepassé cette limite dès l’année 2016, un fait qui a mis en émoi la section locale du Sierra Club. La totalité du gaz brûlé dans le Dakota du Nord par les exploitants du Bakken durant le mois de mars 2019 aurait suffi à assurer le chauffage de toutes les habitations de cet Etat pendant 10 ans !

Plus incroyable encore, comme l’Etat dépend pour ses revenus des taxes sur le pétrole recueilli, limiter les extractions pour limiter le brûlage du gaz aurait également réduit les ressources financières et par conséquent les autorités laissent faire … De ce fait les statistiques parvenant à l’Environmental Defense Fund sont toutes fausses. Enfin pour aggraver le tableau déjà franchement déplorable, si le gazoduc reliant les champs gaziers et pétrolifères tant de Bakken que du Permien n’est toujours pas terminé le simple fait que les cours du gaz naturel pratiqués au hub de Waha où se trouvent des unités de liquéfaction sont chroniquement dans une zone négative. en d’autres termes le « gaz naturel de schiste » provenant de ces bassins d’une manière ou d’une autre comme par exemple compressé est loin d’être rentable : il vaut bien mieux le brûler sur place …

La « beauté » du gaz de schiste est donc un leurre, du moins aux USA où les infrastructures de transport sont cruellement inexistantes. Chaque mois le gaz naturel brûlé représente la consommation mensuelle de trois pays comme Israël, la Colombie ou la Roumanie, ça laisse rêveur.

Source : Oilprice.com