Le retour de l’énergie nucléaire au Japon, 70 ans après Hiroshima et Nagasaki

Capture d’écran 2015-07-29 à 17.24.52

Le dix août, la Kyushu Electric Power Company va remettre en fonctionnement le réacteur nucléaire Sandai 1, soixante-dix ans et quatre jours après le bombardement par les Américains de la ville d’Hiroshima et soixante-dix ans et un jour après celui de Nagasaki, deux villes également situées sur l’île de Kyushu, 4 ans et 5 mois après le grand tsunami qui frappa le Japon et provoqua l’accident nucléaire de Fukushima-Daiichi. Le combustible est déjà chargé et les tests finaux sont en cours sous la supervision de l’autorité de régulation (NRA), un organisme indépendant créé après le grand tsunami et l’arrêt de tous les réacteurs nucléaires du Japon. Le personnel a suivi une formation extrêmement stricte pour parer à tout incident en accord avec le cahier des charges imposé par la NRA. Ce cahier des charges a contraint les compagnies d’électricité à réaliser des investissements nombreux, coûteux et variés pour améliorer la sécurité des installations nucléaires et pouvoir intervenir en cas de nouvelle grande catastrophe naturelle. L’unité de Sandai 1 a passé avec succès tous les tests et ceux ultimes de l’approbation populaire qui a demandé beaucoup de temps en raison du forcing des opposants au nucléaire. L’unité 2 du même site devrait également être opérationnelle dans les prochains mois.

La facture d’électricité des Japonais à doublé en 4 ans. L’arrêt de l’ensemble du parc nucléaire du pays a lourdement affecté l’équilibre économique du pays, les importations de charbon, de pétrole et de gaz naturel liquéfié ont en effet pénalisé non seulement les particuliers mais l’ensemble de l’économie qui ne s’en est sortie que grâce à l’abnégation, au sens civique et à l’opiniâtreté des Japonais dans leur ensemble. La facture énergétique japonaise a en effet augmenté de 30 milliards de dollars par an depuis le grand tsunami. Qu’en est-il du futur ? Le METI est pragmatique et ne s’est pas engagé dans des programmes « renouvelables » intenables. Il se limite à un programme dit S+3E, c’est-à-dire sécurité, efficacité énergétique, efficacité économique et conservation environnementale. La réduction de l’utilisation de combustibles fossiles carbonés ne pourra se faire qu’avec la remontée en puissance des quelques 20 réacteurs nucléaires considérés par la NRA comme aptes à être remis en fonctionnement pour atteindre environ 22 % du package énergétique électrique du pays. Au nucléaire s’ajouteront quelques aménagements hydroélectriques pour atteindre au mieux 9 % et les autres sources d’électricité renouvelables (vent, solaire et biomasse) n’atteindront pas plus de 14 % à l’horizon 2030. Cette réorientation en douceur permettra de diminuer la dépendance aux combustibles fossiles de 88 % actuellement à au mieux 55 % à cet horizon 2030. Par ailleurs la société Mitsubishi développe avec ses partenaires américains et chinois des réacteurs nucléaires dits modulaires dont la mise en place quasiment en série pourra être envisagée dès les années 2025. Ces « petits » réacteurs, tout de même 375 MWe soit la taille d’une centrale au charbon, seront beaucoup plus résistants aux tremblements de terre, une dimension mieux adaptée pour un pays qui subit plus du cinquième des tremblements de terre de toute la planète. Enfin le METI n’exclut pas la réouverture du programme neutrons rapides, créneau dans lequel le Japon a toujours été présent.

Source : Japan Atomic Industrial Forum ( jaif.or.jp ), illustration Asahi Shimbun

Science et religion n’ont jamais fait bon ménage : retour sur la théorie de l’effet de serre et le réchauffement climatique, épisode 1

Il faut souffrir de notre vivant pour expier nos fautes originelles, c’est en résumé la philosophie des religions monothéistes afin d’assurer la survie de notre âme. C’est ce que nous préparent les écologistes, des souffrances, car nous sommes tous coupables de piller les ressources naturelles limitées qui nous sont offertes par la planète … Il s’agit en réalité de la résurgence d’une nouvelle religion que mettent en place insidieusement ces écologistes avec les mêmes outils qu’a utilisé pendant des siècles la religion catholique, c’est-à-dire par exemple l’Inquisition qui a conduit au bûcher Giordano Bruno parce qu’il avait osé contester le géocentrisme prôné par l’Eglise pour préserver symboliquement son pouvoir temporel. Les écologistes retournent à cet obscurantisme. Les papes défendaient la primauté cosmologique de la Terre, les écologistes veulent protéger la Terre comme un élément fini dont on ne peut pas extraire tout ce dont on a besoin de manière anarchique. De même que la religion a toujours profité de l’exploitation de la peur de l’au-delà, de même les écologistes brandissent la fin du monde, en d’autres termes il faut faire pénitence pour assurer un avenir à la planète et aux privilégiés qui échapperont à l’Armageddon planétaire climatique. En quelque sorte nous devons aujourd’hui, maintenant, tout de suite, expier nos fautes passées et à venir, une sorte de réactualisation du péché originel, nous serrer la ceinture pour préserver l’avenir de la planète. Car la planète Terre a plus d’importance aux yeux des écologistes que n’importe quel être humain …

Cette dimension planétaire que n’avaient jamais abordé les papes aux XVe et XVIe siècles – il faut préciser qu’ils prônaient la platitude de la Terre et que Rome se trouvait au centre de ce disque symbolique – les écologistes climatiques alarmistes ont repris ce concept de platitude de la Terre pour biaiser les calculs de flux du rayonnement en provenance du Soleil et je me permettrai d’en apporter une preuve (voir note) ainsi que la preuve de l’imposture de cette comédie funeste pour l’ensemble de l’humanité qu’est le réchauffement climatique proclamé par des pseudo-scientifiques dûment assermentés par les Nations-Unies (l’IPCC) pour terroriser le monde entier. La subtilité de ces pseudo-scientifiques réside dans une manipulation de la thermodynamique telle qu’elle est pourtant enseignée (encore ?) au lycée. Lorsque la Terre est éclairée, donc chauffée, par le Soleil il existe un décalage entre le maximum de la température atteinte à la surface du sol et le passage au zénith du Soleil. Pour rappel l’énergie incidente en provenance du Soleil est d’environ 1370 W/m2 lorsque le Soleil est au zénith au niveau des tropiques, c’est-à-dire lorsqu’il n’y a pas d’ombre portée, en d’autres termes lorsque le rayonnement solaire se trouve à l’exacte perpendiculaire avec la surface terrestre. Or la Terre est ronde et de plus elle tourne sur elle-même en 24 heures. En tenant compte de ces données que personne ne peut contester, à moins de risquer le bûcher comme Giordano Bruno, il se trouve que la Terre réémet à la faveur de ce cycle jour-nuit la totalité de l’énergie qu’elle a reçu en provenance du Soleil et au final la Terre se comporte immuablement comme un corps noir à la température de –18 °C.

Les tenants (ou inventeurs) de la théorie de l’effet de serre, considérant que la température de la Terre au sol se trouve être en moyenne (et il faut garder en mémoire cette fausse notion de température moyenne) de + 15 °C, il « doit » exister un « effet de serre » pour que l’on puisse constater une telle situation. Le subterfuge utilisé pour justifier l’existence d’un effet de serre a consisté à oublier que dans la réalité l’atmosphère est aussi soumise au champ gravitationnel terrestre et que par conséquent la température moyenne au sol de 15 °C s’explique par l’existence du gradient de pression et de densité de l’atmosphère en fonction de l’altitude qu’on appelle gradient adiabatique, j’en ai déjà dit un mot dans plusieurs billets de ce blog. On est effaré devant une telle ignorance du fonctionnement de l’ensemble harmonieux que constituent la Terre et son atmosphère aussi ténue que celle de Pluton dont la sonde interplanétaire de la NASA nous a gratifié il y a quelques jours de cette image surréaliste :

Capture d’écran 2015-07-26 à 21.36.42

De loin la Terre ressemble à ça. Les écologistes, Greenpeace en tête, considèrent que nous perturbons notre atmosphère en raison de notre activité industrielle délirante qui produit un gaz bénéfique pour l’ensemble du maintien de la vie, le gaz carbonique, et que ce gaz est prétendument considéré comme néfaste car il serait susceptible de perturber l’équilibre thermique de l’atmosphère. J’ai fait une récente recherche sur les effets supposés négatifs de ce gaz sur les écosystèmes. En dehors de tous les articles pseudo-scientifiques carrément orientés idéologiquement vers l’hypothèse de l’effet de serre, ce gaz est bénéfique pour tous les organismes vivants dont le métabolisme en dépend. Globalement toute forme de vie sur la Terre, y compris l’espèce humaine, est dépendante du CO2. Sans CO2 pas d’herbe, pas d’arbres, pas de fruits, pas de blé, pas de plancton donc pas de poissons, pas de coraux, et paradoxalement pas de pétrole ni de charbon dont la combustion restitue à la planète ce que la géologie a piégé avec le temps de même que les océans piègent le méthane généré par les fermentations bactériennes des boues profondes sous forme d’hydrates que l’on est sur le point d’exploiter de manière rentable. Les boues d’estuaire sont de formidables machines à fabriquer des hydrocarbures avec la collaboration de bactéries puisant leur énergie depuis le rayonnement solaire. Sans CO2 aucune vie n’est donc possible sur la Terre. Les végétaux ont paradoxalement pris du retard dans le rééquilibrage de l’atmosphère avec l’accumulation débordante d’oxygène dont ils ne peuvent rien faire. La RUBISCO, cet enzyme le plus abondant sur Terre (voir note en fin de billet) dont le rôle est de mettre à profit la présence de CO2 pour le piéger et le transformer en molécules utiles, cet enzyme fascinant est d’une rare inefficacité parce qu’il y a trop d’oxygène dans l’atmosphère !

Voici l’oubli des écologistes :

Capture d’écran 2015-07-26 à 19.35.45

Comme il fallait trouver un bouc-émissaire aux délires malthusiens de ces fanatiques d’un nouveau genre, le CO2 était et constitue maintenant le meilleur argument pour terroriser les populations. Il y avait bien eu les CFCs et la destruction de la couche d’ozone matérialisée par le fameux « trou » au dessus de l’Antarctique. Une fois l’interdiction des CFCs obtenue, le CO2 fut déclaré principal acteur de cet effet de serre qui s’explique par cette différence de température entre le sol et la température de – 18 °C du corps noir que constitue la Terre isolée dans l’espace. Si encore une fois on fait une recherche dans la littérature scientifique non caviardée par les écologistes on ne trouve aucune preuve d’un rôle majeur du CO2 dans un putatif réchauffement de la planète. On se trouve donc aujourd’hui dans une situation identique à celle des scientifiques du XVIe siècle : toute contestation du dogme du réchauffement climatique global porte atteinte aux fondements de l’église de scientologie climatique.

Rassurez-vous, vous ne grillerez pas comme des toasts (cf Christine Lagarde, Forum de Davos 2014), aux dernières nouvelles une étude très sérieuse publiée par la Royal Astronomical Society le 9 juillet 2015 et qui fera l’objet d’un prochain billet de ce blog prévoit que dès 2020-2025 la Terre entrera dans une ère glaciaire prolongée qui pourrait durer bien au delà de 2050. Tout ça en raison des fluctuations de l’activité solaire. Pour le coup le CO2 n’aura rien à voir et dès lors, si ces pseudo-scientifiques étaient logiques avec eux-mêmes ils devraient au contraire encourager la production de CO2 !

Notes :

Note 1 L’équation :

Capture d’écran 2015-07-27 à 12.20.06

décrit l’état d’un gaz, ici l’atmosphère sec composé d’azote, d’oxygène, d’argon et de quantités infinitésimales de CO2, néon, hélium, xénon et krypton, dans un champ gravitationnel, celui de la Terre. Ici g est l’accélération de la pesanteur (9,8 m/ s2) et Cp la capacité thermique du gaz (pour l’atmosphère sec 1 joule/ gramme/ °K) , la température T exprimée en °K à une altitude donnée h s’exprime par rapport à la température To mesurée à une altitude ho. Le gradient de température établi par la compression adiabatique de l’atmosphère est de l’ordre de 10 °K ou centigrades (peu importe) par kilomètre. Il ne faut pas oublier que l’atmosphère n’est pas un système figé et que les courants de convection, les vents, la vapeur d’eau et les nuages contribuent à la dissipation vers l’espace de l’énergie solaire atteignant la surface de la Terre.

Note 2 La théorie de l’effet de serre stipule que la Terre est soumise au rayonnement solaire dans son intégralité et que l’approximation consistant à considérer la partie effectivement ensoleillée de la Terre est plate, ce qui n’est valable, à un instant t de la journée quand le soleil est au zénith, que pour une surface équivalente à environ celle des USA, ce qui introduit une erreur grossière dans les calculs de température au sol. De plus, établir une moyenne diurne des températures est un non-sens scientifique car celles-ci dépendent à l’évidence de l’angle d’incidence du rayonnement solaire. Enfin négliger les phénomènes de refroidissement au cours de la nuit constitue une autre approximation encore plus grossière. En effet, comme l’illustre la figure suivante, il ne fait pas « plus chaud » quand le Soleil passe au zénith et il ne fait pas « le plus froid » à minuit mais les températures se rééquilibrant en permanence, il fait « le plus chaud » en début d’après-midi et « le plus froid » quelques heures avant l’aurore :

Capture d’écran 2015-07-27 à 13.10.46

Note 3 La RUBISCO ou ribulose 1,5 bisphosphate carboxylase catalyse la fixation d’une molécule de CO2 sur ce sucre phosphaté pour former deux molécules de 3-phosphoglycérate. L’un des 3-phosphoglycérates est dirigé vers le métabolisme général et l’autre est recyclé pour reformer du ribulose. Ce cycle dit de Calvin, rien à voir avec le Genevois du XVIe siècle, est un gros consommateur d’énergie qui est fournie par le rayonnement solaire conduisant à la cassure de l’eau pour libérer de l’oxygène et des équivalents réducteurs à la cellule photosynthétique. Ces deux voies, carboxylation et coupure de l’eau, ne coexistent pas dans le même compartiment cellulaire car l’oxygène a la fâcheuse tendance à inhiber l’activité de la RUBISCO.

Comme disait Goebbels « plus le mensonge est gros, plus il passe » …

Illustrations : Nasa, Derek Alker et Alan Siddons

Quand Greenpeace est pris en flagrant délit d’interférence politique …

800px-Saint-laurent-nouan

Nucléaire: 10 énergéticiens allemands et autrichiens portent plainte contre un projet britannique

Francfort – Une alliance germano-autrichienne de dix fournisseurs d’énergie et services municipaux ont annoncé jeudi porter plainte contre le projet de centrale nucléaire d’Hinkley Point en Angleterre, emblématique de la politique énergétique de Londres.

Les plaignants ont expliqué dans un communiqué commun que la plainte doit être officiellement déposée dans les prochains jours, auprès de la Cour européenne de justice à Luxembourg.

Ils visent Hinkley Point C, un projet de construction de deux réacteurs EPR dans le sud-ouest de l’Angleterre, auxquels doivent participer les groupes français EDF et Areva.

Évalué à environ 16 milliards de livres (près de 22 milliards d’euros), le projet est largement subventionné par le gouvernement britannique, qui a déjà assuré un prix garanti pour l’électricité produite par Hinkley Point pendant 35 ans.

Nous protestons contre ces subventions nucléaires démesurées, parce qu’elles paraissent sans aucun sens d’un point de vue écologique et économique, et qu’elles impliquent des désavantages financiers considérables pour les autres fournisseurs d’énergie, les énergies renouvelables et les consommateurs, a critiqué Sönke Tangermann, le directeur de Greenpeace Energy, un fournisseur d’énergies renouvelables allemand et un des plaignants.

Les subventions de Londres ont déjà été validées par la Commission européenne. Mais Hinkley Point est toujours l’objet d’une intense polémique, d’autant qu’EDF et ses partenaires chinois n’ont pas encore pris de décision finale d’investissement sur le projet.

La centrale s’est attirée les foudres de l’Autriche, qui a elle aussi prévu d’engager une procédure devant la justice européenne. Vienne, qui a renoncé à l’énergie nucléaire en 1978, craint que ce subventionnement ne remette en cause la transition énergétique en Europe en relançant la filière nucléaire.

Alors que l’Allemagne organise également depuis des années sa sortie du nucléaire, les craintes sont donc similaires du côté de l’alliance germano-autrichienne de fournisseurs d’énergie. Elle estime que ce genre de projets subventionnés tirerait les prix de l’énergie vers le bas sur le marché allemand et parle de distorsion majeure de la concurrence.

Si le modèle britannique de subventions (au nucléaire) fait école, comme nous en avons déjà des signes forts en Pologne, en République Tchèque et en Hongrie, alors l’horizon sera sombre pour la transition énergétique allemande, a ajouté Achim Kötzle, le chef des services énergétiques de la ville de Tübingen (sud), parmi les plaignantes.

Le subventionnement du projet Hinkley Point est contesté aussi par des ONG de défense de l’environnement, des responsables politiques écologistes et d’autres Etats membres de l’UE, comme le Luxembourg.

Londres se dit pour sa part certaine que la décision de la Commission (européenne) est solide et résistera à toute remise en cause.

(©AFP / 02 juillet 2015 13h51)

Enquête ouverte sur d’éventuelles rejets de plutonium dans la Loire par EDF

Blois – Le parquet de Blois a ouvert une enquête sur d’éventuels rejets volontaires, par EDF, de plutonium dans les eaux de la Loire après un accident survenu en 1980 à la centrale de Saint-Laurent-les-Eaux, a-t-on appris samedi de source judiciaire.

La procureure de la République de Blois, Dominique Puechmaille, a saisi à cet effet l’Autorité de sûreté nucléaire et l’Office central de lutte contre les atteintes à l’environnement et à la santé publique, a-t-on indiqué de même source, confirmant une information de la Nouvelle République.

Cette enquête a été ouverte à la suite d’une plainte de l’association l’Observatoire du nucléaire après des révélations de Canal Plus sur l’accident nucléaire survenu le 13 mars 1980 à la centrale de Saint-Laurent-les-Eaux.

Dans un reportage, diffusé le 4 mai dernier, la chaîne cryptée accusait EDF d’avoir procédé à l’époque au rejet délibéré dans l’environnement des matières radioactives concernées par l’accident, dont du plutonium.

Dans un communiqué, l’Observatoire du nucléaire a salué la décision du parquet de Blois, indiquant attendre de cette enquête la mise au jour précise et détaillée des actes gravissimes commis par EDF.

L’association souligne que, malgré la date ancienne de l’accident, les rejets ne sont pas nécessairement prescrits car ils ont eu lieu pendant des années et que la prescription court à partir du dernier jour de l’acte délictuel. L’enquête pourra probablement déterminer pendant combien d’années ces rejets ont été opérés, espère-t-elle.

(©AFP / 11 juillet 2015 16h15) <br /><br /><br /> (AFP / 11.07.2015 16:19)

Je gardais donc sous le coude ces deux dépêches d’agence qui font encore une fois la démonstration que les pouvoirs politiques sont littéralement asservis par le groupe de pression maintenant tentaculaire et transnational que constitue l’organisation Greenpeace. Aucun pays n’échappe aux injonctions de ces idéologues.

L’Association Nucléaire Mondiale (WNA) a déclaré que la démarche du gouvernement autrichien, téléguidée à l’évidence par Greenpeace, allant contre les décisions de la Commission Européenne ayant approuvé le projet Hinkley Point C ne respecte pas le droit des pays à choisir l’énergie nucléaire pour satisfaire leurs besoins énergétiques tout en respectant leurs engagements de réduction d’émissions de carbone. Le Directeur Général de la WNA, Agneta Rising, s’est ému de la désinformation systématique orchestrée par Greenpeace qui est dommageable aux efforts des pays concernés pour réduire leurs émissions de carbone : « Les pays leaders dans la décarbonisation utilisent l’énergie nucléaire. Peu de pays sont dans la situation de l’Autriche qui produit 65 % de son énergie électrique grâce à des installations hydroélectriques construites il y a des dizaines d’années. La plupart des autres pays doivent faire des choix pragmatiques » a-t-il déclaré. Rappelons ici que l’IPCC a reconnu sans équivoque que l’énergie nucléaire est une technologie à faible empreinte carbonée comparable sur ce point à toutes les autres sources d’énergies renouvelables.

Quant aux rejets supposés de plutonium dans la Loire par la centrale nucléaire de Saint-Laurent-les-Eaux à l’évidence l’association « l’Observatoire du Nucléaire » semble ignorer le fonctionnement d’une centrale nucléaire. Pour rappel cette centrale est constituée aujourd’hui de deux PWRs de la série des 900 MW électriques et est pilotée de telle manière qu’elle puisse recevoir du plutonium en lieu et place (en partie seulement) de l’uranium enrichi en isotope 235, un combustible bon marché qu’on appelle le MOX. Pour qu’il y ait rejet de plutonium hors du réacteur il faut qu’un assemblage de combustible soit endommagé et de surcroit en contact avec le milieu extérieur. Le site de Saint-Laurent comprend également deux réacteurs graphite-gaz arrêtés en 1990 et 1992 respectivement.

Pour alimenter la polémique antinucléaire et l’usage de MOX cette association ressort deux accidents, le premier et le plus sérieux qu’EDF ait connu, survenu en 1969 durant lequel une cinquantaine de kg d’uranium commençèrent à fondre sans toutefois qu’une quelconque radioactivité ait été notée hors du réacteur. Un deuxième incident survint en 1980 et consista en une surchauffe ponctuelle d’un assemblage de combustible. Ces incidents furent ressortis des mémoires des années plus tard (trente ans !) pour relancer le débat sur les éventuels risques d’inondation de la centrale de Saint-Laurent à la suite de la crue de la Garonne qui mit en difficulté la Centrale nucléaire du Blayais au bord de la Gironde. L’association entre les incidents de 1969 et de 1980 avec ces risques d’inondation est un cas typique de désinformation rapprochant deux évènements ou situations sans aucun lien les uns avec les autres. Les activistes antinucléaires cherchent par tous les moyens à affoler les populations qui n’y comprennent rien en avançant des arguments spécieux sans aucune base scientifique tangible. On baigne dans le mensonge et l’intoxication systématiques des peuples mais aussi de leurs dirigeants, consternant !

Illustration : centrale de Saint-Laurent (Wikipedia)

Billet d’humeur politique : la crise agricole en France

C’est assez significatif que les médias occultent l’une des principales raisons du malaise du monde agricole français dans son ensemble et pas seulement du secteur de l’élevage. D’abord l’agriculture française est soumise à des régulations ubuesques, les agriculteurs sont rançonnés par la MSA, des bureaucrates ignares pondent des lois destructrices sous prétexte qu’il faut rationaliser la production agricole. À ces délires franco-français s’ajoutent des édits autoritaires en provenance d’autres bureaucrates confortablement installés à Bruxelles qui ignorent tout du tissu paysan français. Le résultat est une sorte de fonctionnarisation centralisée du monde agricole et de toute évidence ça ne peut pas fonctionner car cette réorganisation politique rampante du monde agricole ne tient pas compte des particularismes régionaux ni de l’individualisme fondamental des acteurs du monde rural.

Il y a une autre raison que la presse et les politiciens passent sous silence soigneusement, c’est la situation punitive dans laquelle a été placée la Russie à la suite du vote démocratique des habitants de la Crimée qui ont choisi de se rattacher à la CEI. Les journalistes aux ordres du pouvoir n’ont surtout pas abordé le sujet des conséquences de ces sanctions sur le secteur agricole et alimentaire français mais il en est de même pour de nombreux autres pays européens qui n’ont plus le droit de commercer avec la Russie. La conséquence directe a été une baisse progressive des prix résultant d’une surproduction apparente en raison de la disparition du marché russe. Il a suffi de quelques points de pourcentage de différentiel pour que le malaise apparaisse. Et comme dans tout secteur économique un effet de levier a aggravé la situation. L’élevage, viande ou lait, a le plus souffert de cette situation car il s’agit du secteur agricole nécessitant les plus importants investissements.

Le gouvernement, droit dans ses bottes, accuse la grande distribution mais jamais le président de la République ou le Premier Ministre ne reconnaîtront les faits : la situation de l’Union européenne vis-à-vis de la Russie, dictée par le Département d’Etat américain et le haut commandement de l’OTAN, est une aberration qui meurtrit de nombreux secteurs économiques européens. Les Allemands se sont privé d’un de leurs principaux clients hors Union Européenne et l’économie allemande est en perte de vitesse (voir les derniers indices Markit-flash), l’économie française ne se porte pas mieux alors on feint d’ignorer la vraie raison du malaise agricole français : l’ignominieux asservissement politique de la Communauté Européenne aux diktats de Washington …

Le principe d’incertitude d’Heisenberg appliqué au changement climatique

Heisenbergbohr

En 1927, le physicien allemand Werner Heisenberg définit ce qu’on appelle en mécanique quantique le principe d’incertitude. Ce principe fondamental en physique stipule qu’on ne peut pas connaître avec certitude simultanément deux grandeurs physiques caractérisant une particule avec précision car ces deux grandeurs, la position et le moment (voir ci-après), sont liées. Ce principe a été largement confirmé par la mécanique quantique et il faut préciser pour une bonne compréhension de la suite de ce billet que pour une particule, par exemple un photon défini par une fonction d’onde, le moment de cette particule est défini comme un opérateur de cette fonction d’onde.

C’est en se basant sur ce principe d’incertitude que des petits malins, obsédés par le CO2, ont mis en avant le principe d’incertitude d’Heisenberg, naturellement sans trop savoir de quoi ils parlaient, pour décréter que les photons émis par une molécule d’eau, d’azote, d’oxygène ou de gaz carbonique de l’atmosphère dans la gamme des longueurs d’onde infra-rouges pouvaient très bien se propager dans n’importe quelle direction. Puisqu’un photon thermique provenant d’un objet froid ne sait pas qu’il n’est pas supposé chauffer un objet plus chaud et vice et versa puisqu’un objet chaud ne sait pas qu’il ne peut pas être réchauffé par les photons émis par un objet plus froid, la déduction de cette incertitude est qu’un objet froid peut parfaitement, par simple émission de photons thermiques, chauffer un objet plus chaud. C’est ce que les climatologues appellent l’effet de serre radiatif et ils s’appuient sur cette affirmation pour justifier le changement climatique d’origine humaine. C’est le principe d’incertitude d’Heisenberg revu et corrigé pour satisfaire la théorie de l’effet de serre ! Cette théorie est en contradiction avec les fondements même de la mécanique quantique en ce sens qu’elle nie l’ensemble de la physique, depuis la physique corpusculaire, l’électromagnétisme, la thermodynamique et y compris la mécanique ondulatoire. Si un photon n’a pas de masse mais est décrit par une fonction d’onde il est toujours défini par un moment :

p = E/c = h/λ

où E est l’énergie du photon, lambda sa longueur d’onde et c et h étant respectivement la vitesse de la lumière et la constante de Planck. L’énergie du photon est proportionnelle à sa fréquence v (lettre grecque nu) et inversement proportionnel à sa longueur d’onde λ (lettre grecque lambda) :

E = hc/λ = hv

Or là où le bât blesse c’est d’affirmer que des photons thermiques (infra-rouges) provenant d’un corps froid – les hautes couches de l’atmosphère – peuvent réchauffer les plus basses couches de l’atmosphère et la surface de la Terre car le moment des photons issus des hautes couches de l’atmosphère est toujours inférieur à celui des photons émis par le sol ou les basses couches de l’atmosphère qu’il y ait intervention ou non du CO2 dans cette situation physique liée au gradient adiabatique de l’atmosphère. Prétendre qu’il peut exister un effet de serre provoqué par le CO2, le coupable honni par les spécialistes du dérangement climatique, est donc en violation directe des lois physiques les plus fondamentales, c’est nier les travaux des plus grands physiciens du XXe siècle.

On comprend dès lors le niveau d’imposture de cette théorie de l’effet de serre supposé « déranger » le climat car elle jette aux oubliettes tous les travaux des physiciens comme Einstein, Dirac, Schrödinger, De Broglie … sans lesquels on en serait encore à la théorie de l’éther ou de la phlogistique c’est-à-dire un incroyable retour en arrière de plusieurs siècles. C’est tout simplement ce que veulent les climato-alarmistes, une régression généralisée de l’humanité dans la plus pure ligne d’un Rousseau ou d’un Malthus. C’est donc extrêmement grave que la propagande réchauffiste soit basée sur une aberration scientifique conduisant des personnalités à des déclarations tonitruantes directement issues de cette imposture de l’effet de serre provoqué par le CO2 que je cite ici :

« Nourrir un enfant affamé c’est exacerber le problème de la population mondiale » (Lamont Cole, environnementaliste et écrivain)

« Nous ne pouvons pas laisser d’autres pays avoir le même nombre de voitures, le même niveau d’industrialisation que ceux des Américains. Nous avoir le devoir de stopper le développement des pays du Tiers Monde à son niveau présent » (Michael Oppenheimer, Environmental Defense Fund)

« Le développement durable nécessite une mise en place délibérée de pauvreté, de consommation réduite des ressources et doit préciser des niveaux de contrôle de mortalité » (Maurice King, professeur)

« Les technologies complexes de quelque nature que ce soit sont une insulte à la dignité humaine. Ce serait un désastre à brève échéance si on trouvait une source d’énergie propre, peu coûteuse et abondante » (Amory Lovins, Rocky Mountain Institute)

« La recherche sur l’énergie de fusion est la pire des choses qui puisse arriver pour la planète » (Jeremy Rifkin, Greenhouse Crisis Foundation)

« Le plus grand problème pour la planète ce sont les gens : ils sont trop nombreux, et trop nombreux à vouloir se développer économiquement » (Sir James Lovelock interviewé par la BBC)

« Les êtres humains, en tant qu’espèce animale, n’ont pas plus de dignité que les limaces » (John Davis, éditeur du journal Earth First)

À méditer en cette période estivale, ça remonte le moral …

Lire ou relire https://en.wikipedia.org/wiki/Uncertainty_principle illustration Werner Heisenberg et Niels Bohr (Wikipedia)

La mort aux dents !

e2232550-95a0-44f4-becf-a7af8e536a52-2060x1236

Il y a quelques semaines j’ai relaté dans ce blog l’interaction entre le déséquilibre des acides gras omega-6 par rapport aux omega-3 dans les corps gras utilisés dans la malbouffe industrielle et l’apparition de maladies cardiovasculaires (voir le lien) à la suite du développement d’inflammations chroniques au niveau des artères provoquant l’apparition de plaques d’athérome. Souvent la malbouffe est associée, compte tenu de sa richesse en sucres à une mauvaise hygiène dentaire et ces deux facteurs conjugués forment un cocktail explosif pour les artères et en particulier les artères coronaires, mais pas seulement.

Une dentition mal entretenue favorise également l’apparition de rhumatismes articulaires. Or, on a toujours considéré que la bouche était une cavité indépendante du reste du corps et cette affirmation est totalement fausse. Un mauvaise hygiène buccale n’intervient pas directement sur l’ensemble de l’organisme mais par l’intermédiaire de bactéries particulièrement pernicieuses qui se sont munies d’armes redoutables pour survivre sur et dans la plaque dentaire au niveau des gencives qu’elles finissent par léser. Ce processus est de plus aggravé par un mauvais brossage des dents.

Une étude réalisée en Grande-Bretagne a montré sans ambiguité qu’une bactérie particulière était responsable du danger (voir le lien) et il s’agit de la bien-nommée Porphyromonas gingivalis, une bestiole qui envahit les fibroblastes de la gencive et se met ainsi à l’abri des antibiotiques. Elle se moque des antiseptiques présents dans les pâtes dentifrice et provoque un déséquilibre des défenses immunitaires de l’organisme grâce à l’action d’un mécanisme redoutablement destructeur qui favorise, ironie de la situation, la colonisation de la cavité buccale par d’autres bactéries, tout pour plaire …

Hippocrates avait en son temps affirmé que les infections dentaires favorisaient l’apparition d’arthrites et dans les années 1900 un médecin anglais du nom de William Hunter suggéra que les abcès dentaires étaient à l’origine de nombreux maux. Hunter s’appuyait sur une observation à faire grincer des dents : certaines personnes se faisaient extraire systématiquement toute dent douteuse et elles se trouvaient dans un état de santé général beaucoup plus satisfaisant que les sujets qui gardaient jalousement dans leur bouche comme des reliques des vieux chicots passablement pourris. Cette observation, sans base scientifique solide à l’époque, trouva son explication quand on découvrit la stratégie diabolique de la Porphyromonas gingivalis. Cette bactérie dispose en effet d’un équipement enzymatique d’une rare efficacité lui permettant de tout trouver pour survivre et se multiplier quand elle a commencé à infecter les cellules de l’épithélium buccal dont en particulier celui des gencives en contact avec la plaque dentaire. Puisque comme toute forme vivante a besoin de fer pour survivre, cette bactérie va se servir directement en détruisant la ferritine, une protéine du sang qui transporte le fer jusqu’aux cellules. Elle récupère ce fer à son profit tout en digérant la ferritine et affaiblit alors les cellules qu’elle a infecté. Pire encore, elle envoie dans la circulation sanguine et lymphatique ces enzymes qui à leur tour vont perturber la réponse immunitaire de l’organisme et favoriser toutes sortes de points d’inflammation. D’où l’apparition d’arthrites, de sclérose et de durcissement des artères dont en particulier les carotides et les coronaires, un vrai désastre organisé !

Depuis, on considère que non seulement cette bactérie et ses commensales est responsable direct de problèmes cardiovasculaires mais également de l’apparition de diabètes de type 2 (voir le lien, PlosOne) et même de cancers (lien, British Dental Health Foundation). Que faire ? Se brosser les dents avec une brosse électrique est fortement préconisé par les spécialistes de la bouche. Utiliser des pâtes dentifrice enrichies en fluor, et si on est courageux se faire des bains de bouche avec de l’eau de Javel relativement concentrée, les bactéries anaérobies comme celle mentionnée ont une aversion pour l’oxygène qui les tue instantanément … Et aussi et surtout ne pas garder comme des vestiges d’un passé révolu des dents infectées ou déchaussées, c’est tout simplement dangereux !

Inspiré d’un article paru dans The Guardian, illustration The Guardian.

https://jacqueshenry.wordpress.com/2015/06/26/malbouffe-industrielle-maladies-cardiovasculaires/

http://journals.plos.org/plosone/article?id=10.1371/journal.pone.0128344

http://www.nejm.org/doi/full/10.1056/NEJMoa063186#t=articleTop

http://www.dentalhealth.org/news/details/845

Retour sur le grand tremblement de terre du 11 mars 2011 au Japon

Capture d’écran 2015-07-19 à 14.20.12

Durant les jours qui précédèrent le grand tremblement de terre du Tohoku le vendredi 11 mars 2011 se tenait une conférence internationale de séismologie dans la ville de Kashiwa, au nord de la baie de Tokyo (préfecture de Chiba) à 300 kilomètres de la côte où eut lieu ce tremblement de terre suivi d’un tsunami dévastateur qui restera longtemps dans les mémoires des Japonais. Il état trois heures moins le quart de l’après-midi et tous les spécialistes réunis pour parler de tremblements de terre se mirent à rire quand justement la terre commença à trembler. Ils regardèrent leur montre et la terre trembla presque en continu pendant 4 minutes. Avant même d’obtenir les informations officielles relatives à la magnitude de ce tremblement de terre ils surent tous que celui-ci avait atteint au moins 9 sur l’échelle de Richter car plus les secousses durent longtemps plus elles sont puissantes : 15 secondes pour une magnitude de 6,9, trente secondes pour 7,5, une minute pour 7,9 et ainsi de suite.

Il y avait eu quelques secousses les jours précédents mais quand la terre commença à trembler ce jour-là il y eut une progression dans l’intensité durant la première minute puis tout se mit à bouger avec de plus en plus de violence. Les conférenciers sortirent à l’extérieur, il faisait froid, limite neige, les arbres tremblaient aussi en émettant un bruit étrange, la totalité du building commença à se déplacer en creusant son chemin de quelques dizaines de centimètres dans le sol, le Docteur Chris Goldfinger (je reprend ses propos) continuait à décompter les minutes – ces minutes paraissaient immensément longues – et la terre tremblait toujours. Goldfinger et ses collègues conférenciers, étaient tous persuadés que le Japon était à l’abri d’un tremblement de terre de magnitude supérieure à 8,4 mais cette fois, après 4 minutes de secousses ininterrompues, il fallut se rendre à l’évidence que celui-ci avait probablement atteint la magnitude 9. Les prévisions du géologue Yasutaka Ikeda, spécialiste japonais des tremblements de terre, faites en 2005 s’avérèrent exactes mais personne n’avait suivi son avertissement. Il fallait selon lui s’attendre à une secousse majeure de magnitude 9 dans un futur proche mais personne ne prit malheureusement au sérieux Ikeda.

Tous les spécialistes réunis dehors prirent leur ketaï – leur téléphone portable – et comme ils avaient prédit un tsunami géant à la suite de cette secousse particulièrement longue, ils purent voir la gigantesque vague arriver sur la côte sur le petit écran de leurs ketaïs filmée par les hélicoptères de la chaine NHK trente minutes plus tard. Au final, ce tremblement de terre tua plus de 18000 personnes, dévasta toute la région du nord-est de Honshu, provoqua l’accident de la centrale nucléaire de Fukushima-Daiichi et bien d’autres accidents sur d’autres sites industriels et coûta au bas mot plus de 220 milliards de dollars. Pour le Docteur Chris Goldfinger, spécialiste d’une zone de subduction nord-américaine, ce tremblement de terre était pour lui un avertissement de ce qui pourrait se passer entre la Colombie Britannique et la Californie très prochainement.

Comme le Japon, la côte pacifique du continent américain se trouve être sur ce qu’on appelle la ceinture de feu. Les plaques océaniques géologiquement récentes s’enfoncent sous les plaques continentales plus anciennes provoquant l’apparition de chaines de volcans, des tremblements de terre et des tsunamis. Presque tout le monde a entendu parler de la faille de San Andreas qui coupe littéralement en deux la Californie sur près de 1000 kilomètres. Cette faille est étudiée et scrutée 24 heures sur 24 à l’aide de balises GPS et de sismomètres. Tous les modèles et l’évolution de l’activité sismique prévoient au pire un tremblement de terre de degré 8,4 soit à peine 10 % de l’énergie de celui du Tohoku. Certes il y aura des dégâts mais rien à voir avec ceux qu’endura le Japon en 2011. Par contre, plus au nord, entre l’extrémité nord de la Californie et la Colombie Britannique se trouve une vaste zone de subduction appelée Cascadia qui s’étend sur une longueur de 1200 kilomètres et est également scrutée avec soin car il se pourrait bien qu’un jour prochain on assiste exactement au même type de tremblement de terre que celui du 11 mars 2011 au Japon.

Pourquoi une telle affirmation ? D’abord, autour de la ceinture de feu du Pacifique il ne se passe pas dix ans sans qu’il y ait une secousse majeure du genre 8,5 et plus, voire 9,2, sur l’échelle de Richter, que ce soit en Alaska, au Japon, au Chili ou en Mélanésie. Mais le « real big one » si l’on peut s’exprimer ainsi pourrait survenir sur la totalité de cette zone de subduction et occasionner des dégâts immenses. La raison est simple à expliquer depuis que les géologues ont finalement trouvé une explication au tsunami orphelin qui dévasta le Japon en janvier 1700. Un tsunami orphelin survient sans secousse sismique antécédente ou annonciatrice, il provient donc d’un tremblement de terre ayant eu lieu ailleurs. Ce tsunami dévasta la côte japonaise de Tanabe au sud de Kyoto jusqu’à Kuwagasaki au nord de Honshu. La vague géante bien décrite par l’administration japonaise de l’époque provenait de l’est-sud-est. À cette époque il n’existait pas d’administration dans l’ouest des Etats-Unis et personne ne fit mention d’un tremblement de terre monstrueux dans la zone des Cascadia. Il fallut plus de 300 ans pour trouver la cause du tsunami orphelin de janvier 1700 au Japon : une gigantesque secousse dans cette zone de subduction des Cascadia libérant une énergie considérable accumulée depuis plusieurs centaines d’années.

Capture d’écran 2015-07-19 à 13.13.25

La plaque de Juan de Fuca s’enfonce à cet endroit-là sous la plaque américaine à la vitesse de 36 millimètres par an, pas de quoi fouetter un chat et pourtant, en 315 ans ce mouvement tectonique représente plus de 11 mètres. Or il n’y a pas eu de tremblement de terre dans cette région ces 315 dernières années. Les spécialistes de séismologie prévoient donc une rupture qui pourrait provoquer une secousse de 9,2 sur l’échelle de Richter, le « very big one ». Pour se faire une idée de ce qui pourrait arriver, selon Goldfinger, dans l’hypothèse où la totalité de la zone libérerait d’un seul coup l’énergie accumulée avec le temps comme pour ce qui s’est passé au Japon – il n’y avait pas d’épicentre précis dans le cas du tremblement de terre du 11 mars 2011 – la plaque continentale commencera à s’effondrer d’un mètre et demi puis s’étendra alors vers l’ouest d’environ 25 mètres déplaçant d’immenses quantités d’eau océanique. Une partie de cette eau partira en direction de l’Asie et en particulier vers le Japon comme en 1700, l’autre partie reviendra vers la côte ouest américaine quelques 15 minutes après la fin du tremblement de terre. Selon toutes les simulations effectuées par les géophysiciens les paysages familiers des Etats de Washington et de l’Oregon seront tout simplement méconnaissables, environ 7 millions de personnes ne pourront pas échapper au tsunami géant. Des villes comme Seattle, Tacoma, Portland seront en presque totalité profondément endommagées, la plupart des ponts et viaducs s’effondreront, les zones côtières seront complètement dévastées. Les estimations les plus optimistes font état de 13000 morts ou disparus, d’autres prévisions parlent de plusieurs millions de morts. Si le tremblement de terre survient en milieu de journée, la plupart des écoles, des bâtiments administratifs, des universités et des hôpitaux s’effondreront sur leurs occupants.

Il y a seulement 40 ans que les scientifiques ont pris conscience du danger que représente la zone de subduction de Cascadia et seulement une quinzaine d’années qu’ils trouvèrent une explication au tsunami orphelin qui dévasta le Japon en 1700. Ce n’est qu’aux alentours des années 1960 que la tectonique des plaques permit d’expliquer la récurrence des grands tremblements de terre de la ceinture de feu du Pacifique : Japon, 2011 : 9,0, Indonésie 2004 : 9,1, Alaska, 1964 : 9,2, Chili, 1960 : 9,5. L’immensité de l’Océan Pacifique explique la violence de ces tremblements de terre. Comment découvrit-on l’activité tectonique des Cascadia et la relation avec le tsunami orphelin de 1700 au Japon ? C’est presque anecdotique.

Ghost-Forest.-Courtesy-of-Brian-Atwater

Des géologues curieux s’intéressèrent à la forêt fantôme de la Copalis River près de la côte pacifique de l’Etat de Washington et ils trouvèrent une explication à la mort des cèdres rouges, la présence d’eau salée qui décima d’un seul coup tous les arbres. Par dendrochronologie, on put montrer que le dernier cerne de croissance de ces arbres datait de 1699. La seule explication serait que le sol s’est soudainement affaissé favorisant l’arrivée d’eau salée puis s’est alors relevé mais l’hypothèse du tsunami n’a pas pu être exclue de ce scénario catastrophe.

Il y eut donc bien un tremblement de terre gigantesque de l’ordre de 9,0 de magnitude dans la zone des Cascadia au début de l’année 1700. Selon les géologues la fréquence des tremblements de terre dans cette zone devrait être d’environ 300 ans et le délai a été largement dépassé. Le prochain pourrait aussi à nouveau dévaster par voie de conséquence le Japon … Le dernier tsunami orphelin qui dévasta le Japon, c’était le 27 janvier 1700, le huitième jour du douzième mois de la douzième année de Genroku.

Source : The New Yorker et

http://pubs.usgs.gov/pp/pp1707/chapters/03_JapanIntro_26-35.pdf