Brève. Crise climatique : nuages de très haute altitude au dessus de Paris.

Capture d’écran 2019-06-29 à 17.08.41.png

Cette photo a été prise par Bertrand Kulik le 21 juin 2019 et publiée sur le site Spaceweather.com car il s’agit d’une information intéressante pour plusieurs raisons. D’abord les nuages noctilucents (ou noctulescents) sont normalement invisibles au sud d’une latitude de 50 degrés nord dans l’hémisphère nord. Ce sont des nuages de très haute altitude – entre 75 et 85 kilomètres d’altitude – formés de cristaux de glace d’une taille inférieure à 0,1 micron. Il faut deux facteurs pour que de tels nuages de glace se forment. D’une part il est requis qu’il existe une température inférieure à moins 120 °C pour que ces cristaux se forment, ce qui est le cas à de telles altitudes, et d’autre part il faut qu’il existe aussi des « foyers de condensation » du peu de molécules d’eau présentes, environ mille fois moins que l’air le plus sec trouvé à la surface de la Terre, en particulier au Sahara. Ces foyers de condensation sont des entités moléculaires ionisées qui vont agréger progressivement les rares molécules d’eau présentes.

D’où proviennent ces « foyers de condensation » ? Essentiellement des rayons cosmiques qui ionisent les molécules d’oxygène et d’azote. La présence de tels nuages au dessus du nord de la France indique donc que le bombardement cosmique est suffisamment intense pour provoquer la formation de ces derniers et donc d’une densité importante de ces foyers de condensation. Cette observation signifie d’une part que l’activité magnétique solaire est au plus bas et d’autre part que ces nuages de très haute altitude augmentent significativement l’albedo de l’atmosphère terrestre (cf. la note en fin de billet). En d’autres termes l’observation de tels nuages dans une zone aussi méridionale est un mauvais présage pour l’évolution à venir du climat. Comme l’ont prédit de nombreux spécialistes du Soleil, le climat va se refroidir dans les prochaines années. Il faut ajouter qu’il y a quelques jours des nuages noctilucents ont été également observés depuis le nord de la Floride et du Texas. Il y a vraiment de quoi s’inquiéter car ici resurgit l’hypothèse de Svensmark exposée dans un billet de ce blog (lien) qui a été torpillée par l’IPCC.

Les esprits aveuglés par la propagande climatique ayant trouvé l’argument de la vague de chaleur actuelle sur l’Europe pour renforcer leur opinion au sujet du changement climatique trouveront que cette brève est une « fake-news », pourtant il n’en est rien. La NASA elle-même vient d’admettre que finalement c’est bien le Soleil qui agit de manière prépondérante sur le climat, ce qui fera l’objet d’un prochain billet sur cette rubrique.

Source : https://www.perspectaweather.com

Lien : https://jacqueshenry.wordpress.com/2018/02/03/crise-climatique-le-role-preponderant-mais-indirect-de-lactivite-magnetique-solaire-sur-le-climat-terrestre-est-incontestable/

Note. L’albedo d’une surface, une grandeur comprise entre 0 et 1, est la mesure du pouvoir réfléchissant de la lumière. Si on n’arrive pas à voir les nuages noctilucents pendant le jour ce n’est pas une raison pour nier que ces derniers n’entravent pas la pénétration vers la surface de la Terre de l’énergie solaire. Dans le cas de la photo illustrant ce billet ces nuages sont éclairés par le Soleil « par en dessous » puisque le Soleil est sous la ligne d’horizon et ils réfléchissent cette lumière vers l’observateur situé à la surface de la Terre. Donc, durant la journée, ces mêmes nuages réfléchissent aussi vers l’espace une partie de l’énergie solaire incidente et par conséquent moins d’énergie solaire atteint la surface de la Terre.

Les chauve-souris au secours de la recherche sur le cancer !

50027582-negro-volar-zorro-pteropus-alecto-que-cuelga-en-un-árbol.jpg

Les chauve-souris, outre le fait que ce sont les seuls mammifères capables de voler, ont une espérance de vie démesurément longue si on considère leur taille et leur poids comparés à d’autres mammifères. Elles ont envahi tous les continents à l’exception des régions arctique et antarctique et elles sont les seconds mammifères du monde de par leur diversité. Une autre caractéristique des chauve-souris est leur formidable adaptation à toutes sortes d’agents pathogènes dont en particulier des virus mortels tels que celui de la rage ou de la fièvre Ebola. Enfin, pour souligner ces particularités les chauve-souris semblent indemnes de cancers. Parmi toutes les chauve-souris en captivité répertoriées dans le monde – des dizaines de milliers – il n’y a eu que 5 cas de cancers avérés alors qu’elles ont une espérance de vie en moyenne 3,5 fois plus longue que d’autres mammifères du même poids et dont beaucoup ne sont pas du tout à l’abri d’un cancer. Le record de longévité d’une chauve-souris est de 30 ans.

Je me permets de glisser ici une anecdote vécue à propos de chauve-souris. Il y avait, quand j’habitais là-bas, un restaurant à Port-Vila (Vanuatu) – « l’Houstalet » – tenu par un Français qui proposait au menu de la roussette (Pteropus conspicillatus qui fait partie des grands chiroptères) cuite dans ses ailes et non vidée au préalable. Je n’ai jamais osé goûter à ce mets car le patron avait pour animal de compagnie une roussette femelle qui m’avait adopté. Chaque fois que j’allais boire un verre ou bavarder avec des amis je prenais cette créature contre moi, elle avait appris à se tenir la tête en haut, et elle me léchait le cou en me regardant avec ses grands yeux un peu jaunes pleins de douceur … Selon le patron du restaurant elle avait plus de 20 ans.

Mais revenons au propos de ce billet. Une équipe de biologistes de l’Ecole de Médecine de Singapour s’est intéressée à la chauve-souris pour tenter d’expliquer pourquoi elle était aussi résistante à toute forme de cancer et également pourquoi elle avait une espérance de vie aussi démesurément longue. Ils se sont penché sur des cultures de cellules de Pteropus alecto, un cousin de la roussette du Vanuatu, appelé aussi renard noir volant, commun en Indonésie. Si on met en contact des cellules de Pteropus en culture un puissant inhibiteur de la topoisomérase, enzyme qui provoque des cassures de l’ADN double-brin, comme de l’etoposide ou de la doxorubicine, l’etoposide étant utilisé pour traiter certaines formes de cancers chez l’homme, ces cellules semblaient remarquablement résistantes à cet agent. L’explication fut trouvée en constatant l’abondance dans ces cellules d’une forme phosphorylée d’histone H1. Cette même activité enzymatique spéciale consistant à transférer un phosphate sur ces protéines (les histones) intimement associées à l’ADN nucléaire était présente dans ces cellules avec des activités spécifiques beaucoup plus élevées que pour des cellules humaines ou murines en culture. De même, ces cellules étaient étrangement résistantes à une forte, mais non létale, irradiation avec des rayons gamma pour la même raison.

Il restait à expliquer pourquoi les chauve-souris vivent aussi longtemps et l’explication trouvée réside dans le fait que ces cellules de chauve-souris disposent d’un mécanisme incroyablement efficace pour se débarrasser de tout produit d’origine intra-cellulaire ou d’origine artificielle, on dit xénobiotiques. En effet les cellules originaires de chauve-souris possèdent un taux anormalement élevé d’un transporteur membranaire fonctionnnant dans une seule direction, de l’intérieur de la cellule vers l’extérieur, in vivo vers le liquide interstitiel. Il s’agit du transporteur ABC, acronyme de ATP Binding Cassette transporter, et dans le cas de celui impliqué dans l’expulsion – on peut appeler le processus ainsi – de la doxorubicine il s’agit du transporteur ABCB1. L’implication de ce type de transporteur dans certaines formes de cancer résistants aux traitement chimiothérapique avait déjà été observé. En effet sa biosynthèse, dans ces cancers, se trouve dérégulée et les cellules cancéreuses deviennent insensibles à tout traitement curatif.

Cette observation a permis d’expliquer en partie la longévité inattendue des chauve-souris : elles sont capables d’éliminer très efficacement toute substance pouvant provoquer une mort cellulaire prématurée car la chauve-souris surexprime cette forme de transporteur. Naturellement ce processus de transport consomme beaucoup d’énergie, il faut donc que les mitochondries soient capables de suppléer à cette demande en énergie, en d’autres termes que les cellules soient en bonne santé.

Ce qui intrigua aussi ces biologistes de Singapour est l’apparente immunité des chauve-souris à toutes sortes de virus. Encore une fois ce même transporteur est activé par la présence d’un virus, que ce soit ceux de la rage, d’Ebola, de la fièvre de Marburg, du SARS et de bien d’autres, et les cellules expulsent aussi ces virus à l’aide du même transporteur.

Quand on songe que les éoliennes installées à tort et à travers dans les pays développés tuent des millions de chauve-souris, il ne nous reste que les yeux pour pleurer la disparition de ces mammifères incroyablement divers et riches en enseignements – au moins pour les biologistes – qui pourraient améliorer la condition humaine …

Source : https://doi.org/10.1038/s41467-019-10495-4

Le déclin de l’économie américaine : ce que la presse main-stream dit et la réalité

Traduction d’un article de Paul Craig Roberts paru sur son site le 25 JUIN 2019.

Depuis Juin 2009 les Américains vivent dans la fausse réalité d’une économie florissante. Des « fake-news » et des statistiques truquées ont entretenu cette fausse impression car les vrais chiffres ont été ignorés. Par exemple il serait normal dans une économie remise de la crise ou en croissance de voir le nombre d’emplois augmenter puisqu’il devrait y avoir plus d’offres d’emploi. Pourtant durant la décennies passée Juin 2009-Mai 2019 le taux des emplois n’a cessé de diminuer, passant de 65,7 à 62,8 % de la population en âge de travailler. Une autre caractéristique d’une économie prospère est un fort investissement dans les entreprises. Pourtant les entreprises américaines ont en grande majorité utilisé leurs profits non pas pour se développer mais pour réduire leur capitalisation sur les marchés en rachetant leurs actions. Pire encore d’autres entreprises ont emprunté de l’argent pour racheter encore plus leurs propres actions, manoeuvre ayant pour conséquence un plus fort endettement alors qu’elles réduisaient leur capitalisation boursière ! C’est-à-dire que les conseils d’administration, les dirigeants et les actionnaires de ces entreprises ont choisi de piller leurs propres compagnies, ce qui indique clairement que les dirigeants et les propriétaires de ces entreprises ne considèrent plus que l’état de l’économie justifie de nouveaux investissements.

Dans ces conditions comment peux-t-on considérer que l’économie est en plein essor si les entreprises ne voient pas d’opportunités d’investissements ? Pendant toute cette décennie de supposée croissance économique les vraies consommations de détail ont décliné pour se retrouver aujourd’hui à 1,3 %, et encore, ce chiffre est surévalué puisque le calcul de l’inflation a été modifié pour faire croire qu’elle était plus faible que dans la réalité. Par exemple l’indice des prix à la consommation, indice qui normalement devrait refléter le prix réel d’un standard de vie constant, mesure maintenant un standard de vie variable. Si le prix d’un bien de consommation pris en considération dans ce calcul augmente, ce prix est remplacé par une alternative moins coûteuse, manoeuvre qui réduit arithmétiquement l’indice de l’inflation. Si le prix d’un bien de consommation augmente ce dernier est considéré comme entrant dans la catégories de l’augmentation de la qualité et il n’est pas pris en compte dans le calcul de cet indice.

Les prix des biens de consommations au détail ne peuvent pas augmenter quand la plupart des salaires n’ont pas augmenté depuis plusieurs dizaines d’années, selon une enquête de Pewresearch parue en août 2018. Les salaires des employés à plein temps ont chuté de 4,4 % depuis 1973 en dollars actualisés. Les experts en économie éludent cette évidence. Par exemple ils font remarquer que les gens travaillent plus longtemps et donc que leurs revenus réels sont en hausse mais pas leurs salaires nominaux. Ces mêmes experts à la solde du gouvernement affirment aussi que les départs massifs à la retraite des « baby-boomers » ont réduit la force de travail globale mais ils semblent ignorer que si vous allez dans un grand magasin vous verrez beaucoup de retraités travailler pour arrondir leurs fins de mois difficiles car leur retraite, compte tenu de la fraude sur les statistiques de l’inflation qui n’a pas permis de revaloriser leurs maigres pensions, ne leur suffit plus pour vivre.

Ces mêmes experts gouvernementaux affirment que le faible taux de chômage signifie qu’il y a un manque de main-d’oeuvre et donc que quiconque désire travailler peut trouver un emploi mais ils oublient de dire que des millions de chômeurs, découragés car ne trouvant pas d’emploi, ne sont plus pris en compte dans les statistiques. En effet, selon la loi, si vous n’avez pas recherché activement un emploi pendant 4 semaines consécutives vous n’êtes plus considéré comme chômeur et donc vous n’êtes plus pris en compte dans les statistiques.

C’est coûteux de rechercher un emploi. Quand on dispose de peu d’argent il faut le dépenser pour se déplacer et se montrer pour une interview et rapidement il ne reste plus d’argent pour continuer à chercher. C’est également émotionnellement onéreux car plus on essuie des échecs plus on perd confiance en soi et on finit par ne plus avoir d’espoir. Les gens se rattrapent alors sur des petits boulots payés cash pour pouvoir survivre. Comme conséquence de cet état de fait beaucoup de sans-abri trouvent des petits boulots qui leur suffisent pour vivre car ils ne peuvent même pas payer un loyer et ils vivent dans la rue. Le taux de chômage officiel de 3,5 % n’est que de la propagande. En incluant tous les chômeurs découragés et ceux qui ont des petits boulots payés cash, donc non déclarés, leur permettant de survivre difficilement, on arrive plutôt à un taux de chômage de 21 %. Ces 21 % expliquent pourquoi un tiers des jeunes de 18 à 34 ans vivent toujours chez leurs parents : ils ne gagnent pas assez d’argent (ou n’en gagnent pas du tout) pour avoir une existence indépendante. Dans le même sens la Réserve Fédérale a indiqué que 40 % des ménages américains ne disposent pas d’économie supérieures à 400 dollars.

L’économie américaine a été poussée vers le déclin par des capitalistes avides sans aucune vue de long terme. Lorsque l’Union soviétique s’est effondrée au cours de la dernière décennie du XXe siècle, l’Inde et la Chine ont ouvert leurs économies aux pays occidentaux. Les entreprises de ces pays ont trouvé tant en Chine qu’en Inde une main-d’oeuvre à bon marché pour accroître leurs profits en produisant à l’étranger des biens et des services destinés à leurs marchés intérieurs. Les entreprises qui hésitaient à délocaliser leurs productions ont été menacées par Wall Street de prises de contrôle dans leur pays à moins de réaliser encore plus de bénéfices grâce à ces délocalisations de leurs productions.

Le transfert de millions d’emplois américains à haute productivité et à forte valeur ajoutée en Asie a détruit les carrières et les perspectives de millions d’Américains et a eu de graves répercussions sur les budget nationaux et locaux ainsi que sur les fonds de pension. Les coûts externes de la délocalisation des emplois ont été extrêmement élevés. Ces coûts ont largement dépassé et de loin les bénéfices tirés de cette délocalisation. Presque du jour au lendemain des villes américaines prospères qui constituaient jadis une force industrielle et manufacturière sont devenues des friches économiques. La « guerre commerciale » avec la Chine est une gesticulation visant à dissimuler le fait que les problèmes économiques des Etats-Unis sont le résultat des agissements de ses propres entreprises et du fait que Wall Street a orchestré la délocalisation des emplois américains et du fait que le gouvernement américain n’a rien fait pour arrêter la déconstruction de son économie.

La politique économique de l’administration Reagan axée sur l’offre, systématiquement mal présentée et mal décrite, a permis de remédier à la « stagflation », au malaise de la hausse de l’inflation et du chômage décrit à l’époque comme une aggravation des compromis entre inflation et chômage. Personne n’a vu de courbe de Phillips (cf. note en fin de billet) depuis que l’administration Reagan s’est débarrassée de cet écueil. La Réserve Fédérale n’a même pas été capable de la ressusciter avec des années d’impression monétaire. L’administration Reagan avait mis l’économie américaine sur les rails vers une croissance à long terme non inflationniste, cette perspective a été contrecarrée par la hausse de la délocalisation des emplois.

Normalement l’objectif d’un gouvernement est de protéger les emplois de son pays parce que le gouvernement a besoin des revenus provenant des taxes et des impôts plutôt que de devoir verser des indemnités de chômage et d’entretenir un système de protection sociale. Normalement les politiciens préfèrent les succès économiques aux échecs. Mais la cupidité a triomphé des jugements rationnels et les perspectives de l’économie ont été sacrifiées aux sociétés « court-termistes » et à la cupidité de Wall Street.

En effet les profits tirés de la délocalisation des emplois sont à court terme car la délocalisation des emplois repose sur une erreur d’appréciation qui suppose que ce qui est vrai pour un acteur économique est aussi vrai pour l’ensemble des autres acteurs. Une société individuelle peut tirer avantage de l’abandon de sa main-d’oeuvre nationale et opter pour une production à l’étranger de ses produits pour son marché intérieur. Toutefois lorsque de nombreuses entreprises font de même l’impact sur le revenu des consommateurs domestiques est grave. Alors comme les petits emplois du genre employé d’un supermarché comme Walmart ne rémunèrent pas comme le secteur manufacturier la demande globale des consommateurs est affectée par la baisse des revenus et la demande pour les produits des entreprises délocalisées est moindre. Par conséquent la croissance économique faiblit et lorsque cela s’est produit Alan Greenspan, le Président de la FED à l’époque, a alors décidé de substituer un accroissement de l’endettement des consommateurs à la croissance manquante de leurs revenus. Le problème avec la solution de Greenspan est que la croissance de cette dette privée des consommateurs est limitée par le montant de leurs revenus et lorsque la dette ne peut plus être remboursée elle ne peut plus augmenter. En outre, le service de cette dette absorbe une partie du pouvoir d’achat des consommateurs. Ainsi la délocalisation des emplois a limité l’expansion de la demande globale des consommateurs. Alors que les entreprises rachètent leurs actions au lieu d’investir rien ne peut plus stimuler l’économie. Les chiffres produits plus haut ne sont que des illusions produites par la sous-estimation de l’inflation réelle.

Une grande partie de la prospérité et de la puissance des Etats-Unis après la seconde guerre mondiale est due au rôle du dollar comme monnaie de réserve mondiale. Ce rôle garantit une demande mondiale en dollars et cette demande signifie aussi que le monde finance les déficits budgétaires et commerciaux des Etats-Unis en achetant de la dette américaine. Le monde donne des biens et des services aux USA en échange d’une monnaie de papier. Les USA paient leurs factures en imprimant de la monnaie ! N’importe qui serait capable de comprendre qu’un gouvernement protégerait un tel avantage et n’encouragerait pas au contraire des pays étrangers à abandonner ses dollars. Mais le gouvernement américain, insouciant dans son arrogance, son orgueil et sa totale ignorance, a fait tout ce qui était en son pouvoir pour provoquer la fuite du dollar.

Les Etats-Unis utilisent leur système financier basé sur le dollar pour contraindre les autres pays à tenir compte des intérêts américains à leurs dépens. Les sanctions imposées à d’autres pays, les menaces de sanctions, le gel des avoir et les confiscations, etc, ont conduit de grandes parties du monde, Russie, Chine, Inde, Iran, à des transactions non monétaires qui réduisent la demande de dollars. Par exemple les menaces américaines à l’égard de l’Europe qui achètent de l’énergie russe et des produits technologiques chinois sont des éléments qui déstabilisent l’appartenance de l’Europe à l’Empire américain. Si la valeur du dollar s’effondrait en raison du manque de demande sur les marchés, les Etats-Unis, massivement sur-endettés, se retrouveraient relégués à l’état de pays du tiers-monde.

Il est vrai que de nombreux pays dans le monde ont des leaders politiques mauvais mais les leaders politiques des Etats-Unis sont les pires de tous. Jamais très bon, le leadership américain est tombé dans un déclin abrupt avec l’avènement des Clinton, se poursuivant par Bush, Obama et Trump. La crédibilité des Américains est au plus bas. Des imbéciles comme John Bolton et Pompeo pensent pourvoir restaurer cette crédibilité en explosant un ou des pays. À moins que ces imbéciles dangereux ne soient licenciés nous devrons tous faire l’expérience de leurs erreurs.

Auparavant la Réserve fédérale suivait une politique monétaire dans le but de réduire l’inflation et le chômage, mais aujourd’hui et au cours des dix dernières années sa politique monétaire consiste à protéger les bilans des grandes banques « trop grosses pour faire faillite » et d’autres institutions financières privilégiées par le pouvoir. Par conséquent il est problématique d’attendre des résultats sur le chômage et l’inflation. Il est aussi possible de faire face à une récession et de maintenir des prix élevés des instruments financiers grâce au soutien de la FED à ces instruments. Il est aujourd’hui possible pour la FED d’empêcher une baisse des marchés boursiers en achetant des contrats à terme sur l’indice S&P et d’empêcher une hausse du prix de l’or en faisant en sorte que ses agents fassent basculer des positions nues sur le marché des contrats à terme. De telles manoeuvres ne se sont jamais produites quand j’étais au Trésor. Ce type d’intervention a son origine dans l’équipe de protection anti-crise créée par le clan Bush au cours de la dernière année de l’administration Reagan. Une fois que la FED a appris à se servir de ces instruments elle l’a fait de manière plus agressive.

Les observateurs des marchés qui suivent les tendances du passé oublient que la manipulation du marché par les autorités centrales joue aujourd’hui un rôle plus important que par le passé. Ils s’attendent à tort à ce que les tendances établies par les forces du marché se maintiennent dans cet environnement économique manipulé.

Liens figurant dans l’article de PCRoberts :

https://www.bls.gov/charts/employment-situation/civilian-labor-force-participation-rate.htm

https://www.multpl.com/us-real-retail-sales-growth

https://www.pewresearch.org/fact-tank/2018/08/07/for-most-us-workers-real-wages-have-barely-budged-for-decades/

https://www.businessinsider.com/record-median-household-income-is-hiding-a-chilling-fact-2017-9

http://shadowstats.com/

https://www.cnbc.com/2018/05/22/fed-survey-40-percent-of-adults-cant-cover-400-emergency-expense.html

https://www.claritypress.com/product/the-failure-of-laissez-faire-capitalism/

Note. La courbe de Phillips illustre une relation empirique négative entre le taux de chômage et l’inflation, c’est-à-dire le taux de croissance des salaires nominaux. En d’autres termes, au delà d’un certain niveau de chômage les salariés ne sont plus en position de force pour exiger une hausse de salaire. Lire aussi : https://en.wikipedia.org/wiki/Phillips_curve

Note. Pour ceux qui ne savent pas qui est Paul Craig Roberts : https://en.wikipedia.org/wiki/Paul_Craig_Roberts .Cette personnalité réalise des analyses froides et non partisanes. Qu’on n’aille pas me taxer d’anti-américanisme primaire mais les faits sont là et ils parlent d’eux-mêmes. La situation économique de l’Europe est également loin d’être enviable. En dehors de l’Allemagne et dans une moindre mesure des Pays-Bas toutes les économies européennes seraient en récession profonde si celles-ci n’étaient pas adossées à de la dette alimentée par de la fausse monnaie. Un jour ou l’autre le système économique implosera et alors on entrera dans une « terra incognita ».

Actualité. La canicule en Europe

La chaleur « excessive » qui s’est abattue sur l’Europe ces jours derniers devrait susciter l’intérêt pour d’autres épisodes similaires d’étés brûlants nonobstant le fait que cet épisode caniculaire est attribué au réchauffement climatique global contemporain d’origine humaine par la propagande mondialiste bien pensante.

En 1132 en Alsace les sources se tarirent et les ruisseaux s’asséchèrent. Le Rhin pouvait être traversé à pied. En 1152 la chaleur était si intense que l’on pouvait faire cuire des oeufs dans le sable. En 1160, à la bataille de Bela (en Hongrie), un grand nombre de soldats moururent en raison de la chaleur excessive.

En 1276 et 1277, en France, la récolte d’avoine et de seigle fut totalement détruite par la chaleur. En 1303 et 1304 la Seine, la Loire, le Rhin et le Danube pouvaient être traversés à pied. En 1393 et 1394 un grand nombre d’animaux tombèrent morts et les récoltes anéanties en raison de la chaleur.

En 1440 la chaleur fut excessive. En 1538, 1539, 1540 et 1541 les rivières européennes étaient littéralement asséchées. En 1556 il y eut une sécheresse généralisée dans toute l’Europe. En 1615 et 1616 la canicule s’abattit sur la France, l’Italie et les Pays-Bas. En 1646 il y eut en Europe 56 jours consécutifs de grandes chaleurs. En 1676 des canicules à nouveau. Les mêmes évènements se reproduisirent au XVIIIe siècle. En 1718 il n’y eut aucune pluie entre les mois d’avril et octobre. Les récoltes furent brûlées, les rivières asséchées et les théâtres fermés à Paris par ordre du Préfet de police en raison des températures excessives. Le thermomètre enregistra 36 degrés Réaumur (45 degrés C) à Paris. Dans les jardins de la banlieue arrosés les arbres fruitiers fleurirent deux fois pendant la saison.

En 1723 et 1724 les températures étaient extrêmes. En 1746 l’été fut particulièrement chaud et sec et les récoltes furent littéralement calcinées. Pendant plusieurs mois il n’y eut aucune pluie. En 1748, 1754, 1760, 1767, 1778 et 1788 les chaleurs d’été furent excessives. En 1811, l’année de la comète, l’été fut très chaud et le vin très bon y compris à Suresnes. En 1818 les théâtres parisiens restèrent fermés pendant un mois en raison des chaleurs excessives, la chaleur avait atteint 35 degrés C. En 1830, alors que des combats avaient lieu, le thermomètre afficha des températures de 36 degrés C les 27, 28 et 29 juillet. En 1832, lors de l’insurrection du 6 juin, le thermomètre releva une température de 35 degrés. En 1835 la Seine était presque à sec. En 1850, au mois de juin, au cours de la seconde épidémie de choléra de l’année le thermomètre afficha 34 degrés.

Source : https://www.newspapers.com/newspage/401721042/

Réchauffement global, CO2 et cycles solaires …

Ce billet est une traduction aussi fidèle que possible d’un article de Renee Parsons paru sur le site off-guardian. J’ai vérifié la plupart des faits exposés par cette personne et j’ai trouvé une coquille typographique dont il est fait mention dans une note en fin de billet. Renee Parsons est membre actif de l’ACLU, Union Américaine pour la défense des libertés civiles et membre de Friends of the Earth. Il m’a paru intéressant de faire figurer ce document très compréhensible dans ce blog car il illustre une sorte de retournement de tendance des associations de sauvetage de la planète, dont « Les Amis de la Terre » font partie, vis-à-vis de la politisation outrancière de l’IPCC. Entre crochets dans le texte figurent des ajouts explicatifs.

Capture d’écran 2019-06-24 à 11.21.09.png

Après l’apparition de la photosynthèse il y a un peu plus de 3,2 milliards d’années la planète Terre a toujours été soumise à des fluctuations du climat, [fluctuations dont la complexité déborde le cadre de ce billet], par conséquent il ne sera abordé ici que l’aspect historique de la contribution du CO2 au réchauffement planétaire ainsi que la relation entre les cycles solaires, en particulier les minima solaires, et le climat. Bien avant la création de l’IPCC par les Nations-Unies en 1988 l’augmentation générale des températures avait été corrélée avec celle de la teneur en CO2 de l’atmosphère, seul responsable en raison de son effet de serre considéré comme la seule force motrice de cette hausse des températures.

À cette époque on pensait que le réchauffement global allait être la crise existentielle de notre époque, que la science n’avait plus rien à apporter et que pour notre civilisation les jours étaient comptés. Mais dans l’intervalle les conséquences du réchauffement global demeuraient incertaines car, en effet, un grand nombre de prévisions sur ces conséquences prédites par l’IPCC ne se sont pas matérialisées comme prévu. Le quotidien The Economist a fait récemment le constat suivant :

« Au cours des 20 dernières années la température de l’air à la surface de la Terre est restée stable tandis que les émissions de gaz à effet de serre ont continué d’augmenter ».

Avant la création de l’IPCC l’observatoire Mauna Loa à Hawaii enregistrait des niveaux de CO2 inférieurs à 350 ppm avertissant très clairement que si cette teneur dépassait ce seuil la Terre serait en proie à de graves problèmes et qu’il n’y aurait pas de retour en arrière possible pour l’humanité. Ces cris d’alarme se poursuivent aujourd’hui alors que la concentration en CO2 dans l’atmosphère a atteint 414 ppm et dans le même temps les températures ont atteint leur maximum en 1998.

Dès sa création l’IPCC a limité ses objectifs consistant à :

« Comprendre les bases scientifiques du changement climatique induit par l’activité humaine, ses impacts potentiels et les options d’adaptation et d’atténuation [de ce changement climatique] « .

En d’autres termes, avant qu’aucune science n’ait été réalisée, l’IPCC partait du principe que l’activité humaine était le seul responsable et que les phénomènes naturels ne participaient pas activement à ce processus et ne relevaient pas de sa sphère d’intérêt. En tant que sujet interdisciplinaire d’une complexité extrême l’IPCC ne fait pas autorité dans toutes les disciplines scientifiques qui sont du domaine du changement du climat. Et pourtant la très grande majorité des scientifiques ne contestent pas que le fait que le Soleil avec sa production cyclique d’énergie est la seule véritable force qui régit le système énergétique et climatique de la Terre en tant qu’élément d’un système centré sur le Soleil, l’exclusion de ce dernier par l’IPCC ne peut être considéré que comme un acte délibéré contrecarrant un ensemble de lois fondamentales de la science, une attitude qui devrait faire l’objet d’une enquête approfondie réalisée par des scientifiques impartiaux.

Le Soleil est le corps céleste le plus massif du système planétaire dans lequel se trouve la Terre et il exerce une attraction gravitationnelle puissante sur « ses planètes ». Ses taches solaires sont en relation avec les températures de la Terre et ceci est connu et bien répertorié depuis que Galilée a commencé à observer ces taches en 1613. Pourtant, l’PCC, qui prétend défendre une « vision scientifique du changement climatique », voudrait nous faire croire que le Soleil est immatériel et sans conséquence aucune sur l’évolution du climat terrestre, tout simplement un point chaud négligeable dans le ciel (illustration).

Dans ce débat sur le réchauffement global le CO2 est considéré comme un polluant incolore et inodore qui ne mérite que peu d’attention, et pourtant c’est une composante essentielle de toute vie sur la Terre car la photosynthèse ne peut pas avoir lieu sans CO2. Ce gaz est un contributeur indispensable pour l’agriculture car les plantes absorbent du CO2 et relâchent de l’oxygène dans l’atmosphère, un autre gaz atmosphérique dont dépendent tous les êtres vivants, qu’ils soient quadrupèdes ou bipèdes. C’est ainsi que certains scientifiques considèrent que la Terre a souffert d’une « famine » de CO2 et applaudissent le reverdissement indéniable de la planète depuis au moins trois décennies.

Avec les deux films de l’ancien vice-président Al Gore, « Une vérité qui dérange » (2006) et « Une suite qui dérange » (2016) qui traitent du climat comme d’une science acquise et dramatisent le réchauffement du climat comme étant une question de morale, il n’y a plus de place pour une autre approche critique, sceptique et indépendante basée sur des preuves. Il s’agit maintenant de politique partisane adossée sur l’émotion et une opinion subjective.

Compte tenu de l’importance que prennent les conditions météorologiques dans notre vie quotidienne, il semblerait que les citoyens engagés et les paléoclimatologues en herbe tentent de comprendre l’histoire ancienne du climat et de l’atmosphère terrestres pour obtenir une perspective claire du climat actuel et du climat futur de la Terre. Le climat est un système non linéaire dépendant d’une multitude de variables suivant des rythmes mais aussi des fluctuations erratiques, ce qui rend les prévisions météorologiques impossibles. Le climat est également une moyenne des systèmes météorologiques sur une période déterminée alors que les évènements météorologiques locaux indiquent une tendance à court terme mais ne constituent en aucun cas des prévisions précises sur le changement climatique.

L’analyse des carottes glaciaires n’indique pas les causes du réchauffement global, elles permettent seulement de se faire une idée du rapport entre le CO2 atmosphérique et les températures. Il appartient aux scientifiques d’interpréter les résultats. Et c’est là que ce récit prend une tournure imprévue quand il s’agit d’étudier le climat passé. On peut dire alors que ce que les scientifiques ont découvert est une « vérité dérangeante » : ils savent depuis 20 ans que les carottes de glace de Vostok dans l’Antarctique réfutent le rôle du CO2 dans le réchauffement du climat et remettent en question sa contribution en tant que principal gaz à effet de serre dans l’atmosphère. En effet la glace est de la vapeur d’eau atmosphérique figée sous forme de glace et elle contient 3,6 % de CO2 * et tous les scientifiques spécialisés dans ce type d’étude le savent ( * voir l’importante note en fin de billet). Le Centre de Recherche Vostok est situé au centre de la calotte glaciaire antarctique et des physiciens russes et français y travaillent en collaboration étroite. Ils ont collecté des informations depuis les années 1990 pour mesurer la teneur historique en CO2 dans la glace. Les échantillons ont les premiers permis de montrer des évidences irréfutables de l’évolution du climat terrestre depuis 420000 ans, considérable laps de temps traversé par 4 périodes glaciaires et inter-glaciaires. Ces échantillons remettent complètement en cause le fait que le CO2 provoque un réchauffement : il n’est pas « le coupable » que l’on croyait. Comme on pouvait s’y attendre l’IPCC considère que ces résultats, pourtant irréfutables, fournissent des « valeurs aberrantes » …

La première révélation significative des études sur les carottes de glace est que le réchauffement global ne pouvait pas être uniquement attribué au CO2 car les augmentations de sa teneur dans l’atmosphère survenaient toujours systématiquement après les augmentations de température et qu’il existe un long délai de latence entre ces deux évolutions. Un raisonnement clair et logique voudrait que la cause, c’est-à-dire le CO2, précède l’effet, c’est-à-dire l’augmentation de la température, selon l’IPCC, or cette affirmation est en complète contradiction avec toutes les études des carottes glaciaires. Aujourd’hui, avec un CO2 à 414 ppm, les températures restent dans la variabilité normale. Pour enfoncer le clou dans le raisonnement illogique de l’IPCC toutes ces études montrent que l’augmentation du CO2 atmosphérique survient après les 800 ans suivant un réchauffement du climat [ce qui serait en accord avec l’augmentation de la teneur observée depuis le début de l’ère industrielle comme conséquence de l’optimum climatique médiéval]. Cette latence a cependant été évaluée à plutôt 8000 ans et en 2017 une dernière évaluation a porté ce délai à 14000 ans. On peut donc dire que dans un monde complexe régi par la mécanique quantique il serait admis que le CO2 et les températures sont corrélées lorsque ces deux grandeurs varient ensemble, tout en étant séparées par un décalage de plusieurs milliers d’années.

Ce qui paraît obscur et inexplicable pour l’opinion publique dans cette espèce de « remaniement » du réchauffement global par l’IPCC c’est que les archives géologiques ont identifié les changement climatiques comme obéissant à des cycles naturels de périodes glaciaires de 100000 ans interrompues par de brèves périodes interglaciaires de 15 à 20000 ans. Ces périodes interglaciaires sont de simples répits tempérés dans un monde globalement plus froid au cours des millénaires passés. Au sein de ces alternances d’épisodes glaciaires et interglaciaires il existe des sous-ensembles cycliques de réchauffements et de refroidissements de la planète exactement comme la période interglaciaire actuelle a débuté à la fin du Pléistocène il y a environ 12000 ans. Le climat n’est donc pas une constante. Voici des exemples de sous-ensembles climatiques récents :

moins 200 avant JC – 440 après JC : cycle de réchauffement romain,

440 après JC – 950 après JC : cycle froid des « âges sombres »,

950 après JC – 1300 après JC : cycle de réchauffement médiéval,

1300 après JC – 1850 après JC : petit âge glaciaire de la Renaissance,

enfin 1850 – présent : cycle de réchauffement moderne

De plus les relevés climatiques ont montré que les pics de CO2 du passé sont proches des valeurs actuelles sans la contribution des combustibles fossiles qui n’ont été massivement utilisés qu’après la moitié du XIXe siècle. Par exemple, la teneur actuelle en CO2 de 414 ppm se compose des 300 ppm tels qu’enregistrés au XIXe siècle alors toute accumulation de ce gaz au delà de ces 300 ppm devrait être considérée comme d’origine anthropogénique et donc classée comme « historique » ou d’un « niveau alarmant » et pourtant elle reste statistiquement non significative si on la compare aux niveaux historiques passés. En effet, au cours des 600 derniers millions d’années seules les époques géologiques dites du Carbonifère et de l’Holocène récent ont connu des teneurs en CO2 inférieures à 400 ppm.

Au début du Carbonifère la teneur en CO2 était de 1500 ppm avec une température moyenne de 20 °C puis au milieu du Carbonifère la température moyenne plongea vers 12 °C et la teneur en CO2 suivit cette plongée pour arriver à 350 ppm. En d’autres termes la contribution humaine à cette teneur en CO2 atmosphérique est bien inférieure à ce qui a été considéré comme significatif au cours du Carbonifère. Contrairement à l’objectif décidé par l’IPCC la NASA a tout de même reconnu que : « tout le climat terrestre, de la surface de la planète jusqu’à l’espace, est sous l’influence du Soleil » et que le climat ressenti à la surface de la Terre est « influencé par les petites variations du cycle solaire ».

Un cycle solaire a une durée d’environ 11 ans et il débute par une faible activité magnétique. Celle-ci augmente au cours du cycle avec simultanément une augmentation du rayonnement émis et elle décroit ensuite avec une activité réduite au niveau des taches solaires ce qui a alors un effet sur les températures de la planète. Le cycle solaire actuel finissant [#24] est désigné par les astrophysiciens comme un « Grand minimum » car le nombre de taches solaires répertoriées a été anormalement faible. Selon un scientifique de la NASA ce cycle est l’un des minima les plus profonds de l’ « ère spatiale » [qui débuta en 1957] et il prédit aussi un record de l’ère spatiale pour le froid. Il a cependant clarifié sa déclaration dans la mesure où elle s’applique uniquement à la thermosphère [cf. le billet du 2 mars 2019 sur ce blog].

Comble de propagande mensongère, en Octobre 2018 la NOAA avait prédit pour les USA « un hiver avec des températures plus clémentes ». On sait ce qu’il est advenu de ces prévisions : des précipitations anormalement élevées et des températures anormalement basses dans tout le pays.

En 2018, le Soleil, dans ce cycle finissant, a connu 221 jours sans aucune tache comme l’a relevé le site Spaceweather.com. Que l’on soit partisan ou non des thèses soutenues par l’IPCC le Grand minimum solaire est attendu pour 2020 et il durera jusqu’en 2026 tout en provoquant des situations climatiques anormales et contre-intuitives incluant des températures plus fraiches en raison d’une couverture nuageuse plus dense, des épisodes plus chauds dus à une brillance plus prononcée d’un Soleil exempt de taches solaires, des évènements radio-électriques potentiels, de fortes pluies suivies d’inondations et des épisodes de sécheresse, des printemps écourtés avec de graves conséquences sur l’agriculture et la production de nourriture, mais aussi des épisodes hivernaux plus cléments que d’habitude.

Il est clair qu’un changement climatique important est en train de se produire alors même que le rôle du CO2 et de l’activité humaines en tant que facteurs de causalité restent problématiques et également que l’élimination ou la réduction de la production de CO2 et de méthane d’origine humaine n’améliorera pas nécessairement l’état de la planète Terre. Il serait grand temps que les scientifiques se comportent en scientifiques sans agendas politiques ni interférences bureaucratiques car le Soleil continuera sa course dans la Galaxie et la Terre continuera à tourner autour de lui comme elle l’a fait depuis des millénaires.

En conclusion, il est permis de rêver qu’un jour, dans un futur proche ou lointain, les hommes seront capables d’extraire l’énergie du point zéro [ZPF, zero point force, lien] dont Nikola Tesla pressentit la possibilité au début du XXe siècle. Mais il s’agit d’un redoutable challenge comme l’est d’ailleurs l’énergie de fusion nucléaire. Pendant ce temps le climat de la Terre continuera à évoluer conformément aux cycles naturels. On peut rêver d’un monde disposant d’une source d’énergie inépuisable, un nouvel âge d’innovations à l’échelle de la planète, un monde sans industries rapaces, sans pollution, sans pénuries et … sans guerres. La Terre tournera sans nous (lien Youtube) …

Source : billet paru sur le site off-guardian le 21 Juin 2019 : https://off-guardian.org/2019/06/21/global-warming-carbon-dioxide-and-the-solar-minimum/

Autres liens : https://en.wikipedia.org/wiki/Zero-point_energy

https://www.youtube.com/watch?v=O7O8J5dnwYs

Note. La teneur en CO2 dans l’atmosphère reconstituée par l’étude des calottes glaciaires est réalisée par l’étude non pas de la glace elle-même mais des micro-bulles d’air emprisonnées dans celle-ci. Lorsque la vapeur d’eau atmosphérique se condense pour former des gouttelettes (nuages) ou de la glace (flocons) celle-ci dissout du CO2. Les océans contiennent par volume 52 fois plus de CO2 que l’atmosphère. Il y a donc dans le texte original de Renee Parsons une coquille typographique, il faut lire 3,6 (ou 3,6 parties par milliers en volume) ce qui est du même ordre de grandeur que la teneur en CO2 dans la neige des régions polaires.

Une autre représentation de la richesse mondiale …

Capture d’écran 2019-06-22 à 17.35.35.png

C’est le site howmuch – il porte bien son nom – qui vient de mettre en ligne une représentation de la richesse boursière mondiale. Elle est largement dominée par les valeurs « tech ». Celles-ci représentent plus du tiers de la capitalisation boursière mondiale : 957 milliards de dollars sur 2230 milliards. Mais cet état de fait est trompeur. La crise boursière de 2001, éclatement de la bulle dot.com, pourrait se reproduire si une crise financière survenait. Cette capitalisation pourrait se réduire à une peau de chagrin, qui comme son nom l’indique chagrinerait beaucoup de personnes se croyant aujourd’hui multimilliardaires. Les services financiers représentent à peine le cinquième des valeurs « tech ». Il est vrai que la politique des taux d’intérêts nuls voire négatifs choisie par les banques centrales ne joue pas en faveur des banques et la capitalisation boursière de ces dernières s’est effondrée depuis la crise de 2008-2009. Seuls Amex et Visa s’en tirent à peu près mais il faut bien préciser que ces compagnies réalisent plus de profits que les établissements bancaires traditionnels car le crédit est facturé au détenteur de cartes à un taux usurier si on compare ce dernier aux taux pratiqués par les banques centrales. Le secteur automobile est dominé par le groupe Toyota, une entreprise qui a choisi dès la fin des années 1990 la technologie « hybride » qui a remporté depuis un franc succès plaçant cette entreprise dans une position confortable dans la transition qui devrait affecter l’ensemble du secteur automobile mondial dans les prochaines années. Enfin la France se distingue dans cette représentation puisque, hors Rolex, toutes les grandes marques de produits de luxe qui figurent dans cette « carte » sont contrôlés par des intérêts financiers français auxquels il faudrait ajouter l’Oréal et Lancôme.

Source : https://howmuch.net/articles/the-world-most-valuable-brands-2019

Le surpoids et le diabète de type 2 favorisent la dégénérescence cérébrale

Dans un précédent billet de ce blog il était question des gènes allèles codant pour la clathrine et la conclusion était que l’abus d’alimentation industrielle riche en sucre aggravait la situation génétiquement préexistante du diabète de type 2 sans apporter de preuves irréfutables bien que ce billet ait été inspiré d’un article scientifique publié dans une revue à comité de lecture.

Revenons sur l’homéostase centrale et périphérique du glucose et son mécanisme. Après un repas, le taux de glucose circulant augmente et les cellules beta du pancréas sécrètent de l’insuline, une hormone qui va provoquer l’entrée du glucose sanguin circulant dans les cellules des organes cibles que sont le foie, les tissus adipeux, les muscles ainsi que le cerveau. Lorsque la concentration sanguine du glucose diminue les cellules alpha du pancréas sécrètent alors du glucagon qui a pour rôle de provoquer le relâchement dans le sang du glucose intracellulaire.

Ces deux mécanismes de régulation pancréatique sont complétés par un contrôle central de l’homéostase du glucose par l’hypothalamus en réponse à l’insuline et à une hormone, la leptine, sécrétée par les tissus adipeux. Chez un individu ayant un poids normal le taux de leptine permet de réduire la sensation de faim. Enfin des neurones sensibles à l’insuline complètent ce tableau en agissant sur le « système nerveux autonome » constitué des nerfs sympathiques et para-sympathiques agissant en particulier sur le foie et le pancréas. Cette régulation est donc d’une finesse extrême car elle est essentielle pour un bon fonctionnement général de l’organisme. Toute perturbation de cette régulation va avoir des effets en cascade désastreux.

Dans l’état actuel des connaissances, une sur-alimentation provoque une sécrétion de leptine telle que les neurones sensibles au sucre perdent progressivement cette sensibilité. Le taux de glucose sanguin a alors tendance à augmenter et son contrôle n’est, progressivement, plus assuré par le seul pancréas.

Le métabolisme général se trouve lui aussi déréglé et l’excès de glucose est utilisé dans la cellule pour produire de l’acétate, le précurseur idéal de la synthèse d’acides gras qui à leur tour vont être stockés dans des tissus adipeux qui se développent et ne servent plus que comme des impasses métaboliques provoquant un surpoids qui va aggraver à son tour toute une série de troubles dans l’ensemble de l’organisme, en particulier des mécanismes d’inflammation systémiques, c’est-à-dire qui se répandent dans tout l’organisme dont en particulier, nous le verrons ci-dessous, au niveau du cerveau. L’athérosclérose est l’exemple le mieux documenté de ces effets secondaires pathologiques. Ces perturbation dites d’intolérance au glucose affectent dans le monde entre 20 et 35 % des adultes et jusqu’à 17 % des enfants en surpoids. Aux USA plus de 45 % de la population est en surpoids …

La difficulté pour un médecin traitant réside dans le fait que l’augmentation du taux de glucose sanguin dans le sang à jeun est un processus multifactoriel résumé dans le diagramme ci-dessous (où NFG est l’acronyme de « normal fasting glucose », glucose sanguin normal à jeun, et IFG l’acronyme de « impaired fasting glucose » ou taux de glucose anormal) :

Capture d’écran 2019-06-22 à 19.28.56.png

Des études récentes ont rassemblé des données reliant le diabète de type 2, le surpoids et l’obésité avec le dysfonctionnement du cerveau et c’est alarmant pour ne pas dire terrifiant. La perturbation de l’homéostase du glucose dans l’organisme a un effet direct sur la « santé » du cerveau comme le résument les deux diagrammes ci-dessous, plus parlants qu’un long discours :

Capture d’écran 2019-06-22 à 19.33.44.png

Capture d’écran 2019-06-22 à 19.37.18.png

Note explicative. La neurogenèse, bien que très discrète chez l’adulte, joue néanmoins un rôle non négligeable dans le maintien de l’intégrité des fonctions de l’hippocampe. Cette neurogenèse est contrôlée par un facteur de croissance d’origine cérébrale appelé Brain-Derived Neurotrophic Factor (BDNF). Ce facteur stimule la production et la différenciation des cellules neuronales de l’hippocampe. L’hippocampe est une région du cerveau située sous le cortex qui est déterminante dans la consolidation de la mémoire de court-terme dite instantanée vers une mémoire de long-terme. Dans les maladies neuro-dégénératives telles que la maladie d’Alzheimer la perturbation de ce mécanisme de consolidation de la mémoire est l’un des premiers symptômes notés par le praticien.

La conclusion de cette étude ayant rassemblé plus de un millier d’articles et de revues est évidente, le surpoids et la perturbation de l’homéostase du glucose sont des facteurs centraux de la dégénérescence du cerveau. Sachant que dans la plupart des pays de l’OCDE les projections font état de plus de 40 % de personnes en surpoids ou pathologiquement obèses (indice pondéral corporel supérieur à 25) en 2030 il est terrifiant de constater que les habitudes sédentaires et une nourriture trop abondante et trop riche en sucre va « zombifier » tout un pan des générations à venir. Réjouissant n’est-il pas ?

Source et illustrations : Frontiers in Neuroendocrinology, vol. 53, Avril 2019

« Sugar in mind : Untangling a sweet and sour relationship beyond type A diabetes », Nicolas Cherbuin & Erin I. Walsh

Philosophie et réchauffement climatique : En ces temps de crise climatique combien d’enfants faudra-t-il avoir ?

Capture d’écran 2019-06-21 à 17.20.39.png

Les religieux, toutes confessions confondues, se lamentaient car il n’y a plus de prophètes. De ce fait l’engouement pour une religion s’estompe en particulier dans les sociétés occidentales modernes. Mais heureusement que nous avons tous, presque dans le monde entier, l’écolière suédoise de 16 ans, Greta Thunberg, qui a été l’invitée d’honneur du récent Forum de Davos, pour nous enseigner la « bonne parole ». Lors d’une conférence elle a clamé que si nous ne faisions rien pour sauver le climat ce serait l’apocalypse :

 » Les adultes répètent sans cesse : nous devons donner de l’espoir aux jeunes. Mais je ne veux pas de leur espoir, je ne veux pas que vous ayez de l’espoir. Je veux que vous paniquiez, je veux que vous ressentiez la peur que je ressens tous les jours. Et puis je veux que vous agissiez » ( sic, https://youtu.be/RjsLm5PCdVQ ).

Un certain nombre de philosophes ont pris son message à coeur et soutiennent désormais que la réponse appropriée au changement climatique ne consiste plus à avoir moins d’enfants mais à n’en avoir aucun. Il est difficile d’évaluer à quel point ce mouvement est répandu. Le dernier numéro de la revue bisannuelle Essays in Philosophy vient de consacrer une étude répondant, en regard de la crise climatique, à la question : « La procréation est-elle immorale ? » ( lire par exemple : https://commons.pacificu.edu/eip/vol20/iss1/4/ ). Selon les auteurs de 4 articles abordant ce sujet la réponse est OUI. C’est la question la plus urgente de notre époque moderne. Le Professeur Sarah Conly, éditeur de la revue citée plus haut déclarait dans son ouvrage paru en 2016 « Un enfant : avons-nous le droit de faire plus ? » que : « nous n’avons pas le droit d’avoir plus d’un enfant lorsque le monde est en danger de dégradation de l’environnement : contrairement à nos parents avoir autant d’enfants que nous le souhaitons n’est plus viable. Compte tenu des données dont nous disposons maintenant, ce n’est tout simplement plus une option acceptable. Nous sommes menacés par plus de population que la planète ne peut en supporter …« .

Les autres contributeurs à ce dernier numéro de Essays in Philosophy ont des idées plutôt novatrices au sujet de la lutte contre le « comportement irresponsable » qu ravage la planète. Anca Gheaus de l’Université Pomeu Fabra à Barcelone observe que le fait d’avoir des enfants est clairement garanti par les documents relatifs aux droits de l’homme, mais avoir plus d’un enfant pourrait être dangereux. Sa solution est d’augmenter le nombre de parents de chaque enfant : « multiparenter, c’est-à-dire trois, quatre ou peut-être davantage d’adultes élevant le même enfant ou les mêmes enfants est une solution envisageable sinon souhaitable. La multiparenté peut être moralement requise« .

Le philosophe Gerald K. Harrison de l’Université Massey en Nouvelle-Zélande adopte une position plus misérabiliste. La vie est un cadeau, observe-t-il, mais c’est un cadeau au sens ou donner de l’héroïne à vie à une personne est aussi un cadeau. Il est convaincu que mises à part des circonstances exceptionnelles les actes de procréation humaines sont probablement mauvais. Trevor Hedberg de l’Université de Floride du Sud estime que l’obligation de réduire les émissions de gaz à effet de serre limite le nombre d’enfants que l’on peut avoir : aucun enfant c’est parfait mais la limite supérieure absolue est deux enfants. Pour ce philosophe il est clair que chaque fois qu’un couple dépasse le taux de fécondité de remplacement il contribue activement à la croissance démographique et à la croissance associée de notre empreinte carbone collective. Aucune interprétation raisonnable de l’obligation de limiter son empreinte carbone ne peut permettre un tel comportement.

L’argument de loin le plus intéressant est celui du Professeur Leonard Kahn de l’Université Loyola de la Nouvelle-Orléans. En tant qu’acte utilitariste il est convaincu que tous les actes non-optimaux sont moralement interdits. Cela le contraint à tirer une conclusion farouchement logique en ce qui concerne la procréation. Un enfant dans un pays riche utilise beaucoup plus de ressources qu’un enfant dans un pays pauvre. Par conséquent la procréation est non optimale et moralement répréhensible pour les riches. Pour Kahn beaucoup de femmes, sinon la plupart, vivant dans des pays économiquement riches sont moralement tenues de se faire avorter si elles se retrouvent enceintes, en d’autres termes nous ne sommes pas moralement tenus de nous reproduire dans un pays riche, c’est-à-dire de ne pas avoir d’enfant.

Conclusion Greta Thunberg peut dormir tranquille : les adultes, du moins certains d’entre eux prennent le changement climatique au sérieux. Elle devrait recevoir un exemplaire gratuit de ce numéro des Essays in Philosophy.

Source : BioEdge

Nouvelles des EPR de par le monde

Capture d’écran 2019-06-20 à 17.05.49.png

Alors que le second EPR chinois sur le site de Taishan a atteint la phase critique de la divergence neutronique, en d’autres termes que la fission de l’uranium 235 enrichi à 5 % s’auto-entretient en produisant de la chaleur, qu’en est-il des autres EPR ? Le réacteur EPR 1 du même site chinois dont la construction avait débuté en 2009 avait atteint le même stade le 6 juin 2018 et a été connecté au réseau trois semaines plus tard. La certification finale fut accordée le 13 décembre de la même année. En ce qui concerne l’EPR finlandais d’Olkiluoto, le combustible est en cours de chargement et il devrait être connecté au réseau électrique à la fin du mois d’octobre de cette année 2019. Son exploitation commerciale certifiée est prévue pour janvier 2020.

Venons-en à l’EPR franco-français puisque cette technologie a été développée en France avec la collaboration du groupe allemand Siemens. L’EPR de Flamanville est toujours en « construction », celle-ci débuta en décembre 2007. Toujours en construction signifie qu’il reste 6 soudures au niveau du circuit primaire de vapeur à réparer car elle sont considérées comme défectueuses par l’ASN, le « gendarme du nucléaire » français. L’EPR français ne sera probablement pas connecté au réseau avant la fin de l’année 2022 !

Il aura donc fallu au mieux 15 ans pour que l’EPR finlandais soit connecté au réseau, La construction des deux EPR chinois débuta respectivement en 2009 et 2010 et le premier à être connecté au réseau le fut 9 ans plus tard. Il en sera de même pour l’unité 2 du site de Taishan. Quand à l’EPR de Flamanville, au mieux, il sera connecté au réseau 15 ans après la première coulée de béton, comme l’EPR finlandais. Les dirigeants d’EDF, qui ne sont pas maîtres d’oeuvre en Chine, n’ont cessé de répéter qu’il faut toujours beaucoup de temps pour atteindre le stade du fonctionnement commercial d’un prototype. Il ne faut pas se moquer des observateurs. Le fait est que les Chinois sont plus efficaces que les Français ou les Européens d’une manière générale et ils en ont fait une brillante démonstration à Taishan.

Inutile d’insister sur les coûts que représentent les retards successifs qu’il serait fastidieux d’examiner ici dans le détail. Il faut retenir pour se faire une idée des capitaux engagés dans la construction de ces monstres que le coût global estimé pour un réacteur EPR britannique sur le site d’Hinckley Point C avoisinera les 10 milliards d’euros et sera environ le double de celui d’un réacteur Chinois sur le site de Taishan. Je tiens le pari que le prochain EPR construit en France le sera par une entreprise chinoise …

Chez l’homme, d’où provient le diabète de type 2 ?

La réponse est difficile à expliquer clairement surtout quand on s’adresse à un néophyte comme votre serviteur voire à un ignorant des mécanismes cellulaires complexes qui régulent l’ensemble du métabolisme. Il me faut donc dans ce billet remonter à la « généalogie » de la production d’insuline par le pancréas. L’insuline est en effet une hormone régulant la teneur en glucose dans le sang. Cette hormone peptidique intervient quand la teneur en glucose sanguin devient trop élevée, comme par exemple après un repas, pour stocker ce sucre sous forme d’un polymère appelé glycogène dans les muscles ou les cellules adipeuses « brunes » pour une utilisation future. Les cellules pancréatiques productrices d’insuline libèrent l’insuline stockée dans des vésicules intra-cellulaires en les expulsant dans le milieu liquide interstitiel pour rejoindre la circulation sanguine. Ces vésicules presque sphériques possèdent une architecture assez incroyablement polyédrique constituée d’une protéine que l’on appelle clathrine, nom dérivé du grec clatharus qui signifie réseau. Ces protéines formées de deux sous-unités différentes s’assemblent pour former une structure à « trois jambes » appelée triskèle.

Clathrin_cage_viewed_by_croelectron_microscopy.jpg

Chez les êtres humains tant le stockage de l’insuline que du sucre sous forme libre est assuré par ces structures vésiculaires constituées de clathrines. Pour transporter le sucre vers le foie ou le muscle l’organisme dispose d’un mécanisme de régulation commandant la synthèse de la chaine polypeptidique CHC22 de la clathrine codée par le gène CLTCL1 situé sur le chromosome 22 et particulièrement exprimé dans les tissus musculaires. Selon le régime alimentaire des animaux, y compris celui de l’homme et en suivant en parallèle l’évolution de l’expression de ce gène CLTCL1 il a été possible de reconstituer l’histoire du transport du glucose dans les muscles et le foie et ainsi éclairer d’un nouveau jour l’apparition du diabète de type 1.

Cette « histoire » de l’expression du gène codant pour la protéine CHC22 suggère que pour les proto-humains – nos ancêtres lointains – il était nécessaire de maintenir un taux de glucose sanguin élevé pour favoriser le développement du cerveau. Quand les êtres humains commencèrent à pratiquer l’agriculture et l’élevage ils disposèrent donc de rations alimentaires plus riches. Il n’était plus nécessaire de maintenir ce taux de glucose élevé et par conséquent le gène CLTCL1 s’adapta pour mieux stocker le glucose sanguin rapidement en le transportant dans ces vésicules formées de clathrines.

Chez l’homme ainsi que chez bon nombre de vertébrés, le gène CLTCL1 est présent sous forme de deux allèles. Bien que ce gène soit remarquablement bien conservé il existe cependant des différences selon les populations humaines contemporaines, qu’il s’agisse par exemple des Yoruba au Nigeria, des Américains du nord d’origine européenne ou encore des Chinois Han de la région de Pékin … Les étapes successives qui ont pu provoquer une adaptation de ce gène sont d’abord l’introduction de la cuisson dans le régime alimentaire il y a 450000 ans, puis l’agriculture et l’élevage il y a 12 à 15000 ans et plus récemment l’alimentation industrielle.

Pour prouver que ce type d’évolution au niveau génétique est bien réel, une différence a pu être identifiée entre l’homme moderne issu de populations pratiquant l’élevage et l’agriculture avec les quelques groupes humains chasseurs-cueilleurs stricts existant encore en Afrique. Le même phénomène de différenciation des allèles des gènes CLTCL1 a été observé entre l’ours polaire et l’ours brun qui ont divergé il y a environ 400000 ans. Le dimorphisme observé se situe au niveau d’un SNP en position 1316 de la chaine lourde de la clathrine provoquant le remplacement d’une méthionine par une valine. Ce SNP induit une changement fonctionnel de la clathrine et les vésicules transportant le glucose vers ses destinations de stockage, muscle ou tissu adipeux, interagissent moins bien avec le transporteur de glucose de ces tissus particuliers.

Capture d’écran 2019-06-12 à 17.22.47.png

Quel est le résultat de cette évolution ? Tout simplement l’apparition d’une résistance à l’insuline du transporteur de sucre appelé GLUT4 au niveau des muscles et des tissus adipeux. Cette résistance à l’insuline se caractérise aussi par l’accumulation de la protéine de clathrine CHC22 dans le compartiment cellulaire de stockage du glucose sous forme de complexe avec ce transporteur GLUT4. Les aliments industriels proposés aux populations contemporaines et riches en sucre devraient donc exacerber la situation de la résistance à l’insuline du transporteur GLUT4 puisque les deux allèles, méthionine et valine, de la CHC22 coexistent chez l’homme approximativement depuis l’apparition de l’agriculture.

Source et illustrations : https://elifesciences.org/articles/41517