Corrélation étroite entre température terrestre et CO2 atmosphérique : une vaste fraude !

Dès le début des années 2000 la notion de réchauffement du climat d’origine anthropique s’est officialisée comme ne pouvant plus être réfutée, la science du climat étant considérée comme définitivement acquise. Cette certitude scientifique s’appuyait sur l’interprétation des données fournies par les nouvelles techniques d’observation des variations de température à la surface du sol et les mesures très précises de la teneur en divers gaz mineurs de l’atmosphère et elles provenaient essentiellement des satellites d’observation dédiés à de telles observations spectrales. C’était trop rapidement oublier les travaux des géologues au sujet du climat qui prévalut au cours du Phanérozoïque, c’est-à-dire la période géologique débutant il y a 538 millions d’années jusqu’à nos jours. Cette période géologique correspond à l’apparition d’une multitude de formes vivantes depuis les arthropodes jusqu’aux dinosaures et enfin les mammifères, l’apparition de plantes à fleur puis des oiseaux fut néanmoins entrecoupée de longues périodes de glaciation sans apparente périodicité comme celle établie établie par Milutin Milankovitch au début du vingtième siècle qui ne s’applique avec une raisonnable confiance qu’au cours du million d’années passées. Si on remonte loin dans le temps une multitude d’autres facteurs perturbe en effet cette périodicité des glaciations comme les impacts de météorites, les longues périodes d’éruptions volcaniques et également la dérive des continents.

Bref, les géologues ont, depuis l’accès aux mesures par spectrographie de masse en routine, analysé une multitude de roches sédimentaires en ce qui concerne leur teneur en oxygène-18. L’oxygène-18 représente 2 % de la composition en cet élément et la mesure de la teneur en cet isotope permet de calculer à quelle température l’eau s’est évaporée pour former les oxydes et les carbonates retrouvés dans les roches sédimentaires. Cette teneur s’exprime en rapport entre la teneur en oxygène-18 en regard de l’oxygène-16 et s’exprime en δ18O exprimé en parties pour 1000. Par exemple la teneur en 18O d’un carbonate dans un échantillon de calcite est directement proportionnel à cette température car plus la température d’évaporation de l’eau est élevée plus cette teneur est élevée. Les géologues du monde entier ont ainsi pu remonter dans le temps à l’aide de l’analyse de 6680 échantillons de roches sédimentaires dont la date a été déterminée par d’autres techniques qui ne font pas l’objet de cet exposé mais néanmoins sont prouvées comme étant parfaitement fiables. Ces évaluations du  δ18O ont également permis d’évaluer la teneur atmosphérique en CO2 au cours de la formation de ces mêmes roches sédimentaires riches en carbonates. Les mesures de δ13C, rapport en les isotopes 12 et 13 du carbone ne constituent pas un proxy de températures mais permettent seulement de différencier les sources de carbone organiques. Dans le cas des roches sédimentaires il s’agit du plancton, des matières organiques fossilisées, de la teneur en bore d’origine marine et surtout des carbonates de sodium et de calcium.

Pour remonter jusqu’au début du Phanérozoïque les représentations graphiques ont été moyennées sur des laps de temps de 2,5 millions d’années tant pour les températures que pour la teneur en CO2 de l’atmosphère. À l’évidence, comme le montre la figure ci-dessous, l’évolution des températures au cours des 438 millions d’années passées n’est pas corrélée aux teneurs en CO2 atmosphérique. Légende de cette figure : courbe rouge proxy des températures globales  δ18O x (-1). Silu = Silurien, Neo = Neogene, Quater = Quaternaire. Périodes de glaciation : 1 = Dévonien tardif/Carbonifère, 2 = permo-carbonifère, 3 = Callovien tardif/ Oxfordine médian, 4 = Tithonien/Berrasien, 5 = Aptien, 6 = Cenomanien moyen, 7 = Turonien, 8 = Campanien/Maastrichien, 9 = Masstrichien moyen, 10 Maastrichien récent.

Utilisant les mêmes données géologiques figurant dans cette figure il a été aisé de rechercher une corrélation graphique (et mathématique) en portant la teneur en CO2 atmosphérique en parties par million en regard du proxy de température δ18O x (-1) exprimé en parties pour 1000. Du point de vue mathématique le coefficient de corrélation est certes différent de zéro mais faible (R= – 0,19) mais très faible car R2 = 0,036. Bien malin celui qui affirmerait qu’il existe une corrélation entre ces deux paramètres.

Les lois de la physique telles qu’on les connait aujourd’hui étaient les mêmes au cours des 538 millions d’années passées et il ne doit pas y avoir une plus étroite corrélation aujourd’hui entre température et CO2 atmosphérique que durant ces millions d’années passées. Il est évident que les “spécialistes” de l’IPCC se moquent de ces lois de la physique fondamentale. Ont-ils acquis une bagage universitaire suffisant pour comprendre ce qu’est par exemple la notion d’entropie quand ils prétendent que les photons thermiques réémis par les seules molécules de CO2 atmosphérique suffisent à provoquer un réchauffement au niveau du sol ? Je manifeste quelques doutes. En conclusion tout ce que l’on affirme depuis une trentaine d’année à propos du réchauffement du climat d’origine anthropique est de la fausse science qui a été montée de toute pièces pour satisfaire des objectifs politiques et idéologiques.

Source et illustrations : https://doi.org/10.3390/cli5040076

Réchauffement climatique d’origine humaine : une pure fiction selon deux équipes de géophysiciens !

À 48 heures d’intervalle, deux équipes de géophysiciens, l’une finlandaise et l’autre japonaise, passent à la contre-attaque et dénoncent les mensonges répétés de l’IPCC. La question qu’il est opportun de se poser avant d’entrer dans les détails de ces publications est la suivante : l’IPCC a-t-il été mandaté pour ne considérer que l’effet du gaz carbonique sur la sensibilité du climat à l’exclusion de tout autre paramètre ? Si la réponse est oui, alors qui est le mandataire (ou les mandataires) et pour quelles raisons ? Si la réponse est non, alors je n’aimerais pas me trouver, en tant qu’ancien scientifique, dans la peau d’un quelconque des membres de ce groupement de fonctionnaires internationaux qui accumule les mensonges « par omission » depuis sa création, attitude qui l’oblige à inventer encore plus de mensonges.

En effet les variations du climat terrestre ne dépendent pas que des variations de la teneur en gaz carbonique dans l’atmosphère, ce que ces deux équipes de géophysiciens démontrent clairement. L’IPCC a « oublié » (ou omis) de mentionner les variations de l’activité solaire. L’IPCC au aussi – et surtout – oublié la présence de vapeur d’eau et de nuages dans l’atmosphère. Personne ne peut nier qu’il y a des nuages dans le ciel, à moins d’aller chercher un bédouin au milieu du désert d’Arabie ou au milieu du Sahara qui témoignera que : « oui il n’y a jamais de nuages ici », alors ces quelques personnes confirmeront le fait que l’IPCC n’a jamais pris en compte ce paramètre central dans l’évolution du climat. Ces prétendus scientifiques de haut niveau qui osent donner des conseils aux gouvernements de tous les pays du monde, tous les membres des Nations-Unies, ont avoué, la bouche en coeur, que modéliser la formation et les mouvements des nuages, c’était trop compliqué, alors ils ne l’ont pas envisagé ! On croit rêver …

Entrons d’abord dans le vif du contenu du travail publié par des géophysiciens de l’Université de Kobe (doi : 10.1038/s41598-019-45466-8). Ces universitaires ont reconstruit les changements climatiques concernant le régime des moussons durant les périodes de la fin du Pléistocène et de l’Holocène en s’intéressant aux plateaux du nord de la Chine recouverts de loess, ces poussières apportées par les vents depuis les déserts, et où allaient ces poussières portées par les vents lors des moussons. Il se sont rendu compte que, dans le passé, quand le champ magnétique terrestre faiblissait puis s’inversait, le régime des moussons d’hiver, comme des moussons d’été, était profondément affecté. Durant le changement de direction du dipôle magnétique de la Terre, changement qui survient tous les 400000 ans environ, les variations concomitantes des régimes de mousson qui en résultaient étaient dues aux variations de la couverture nuageuse – sans nuages, pas de mousson – et que cette variation était directement liée à l’intensité du rayonnement cosmique atteignant les plus basses couches de l’atmosphère. Les travaux de cette équipe ont été focalisés sur les variations du régime des moussons telles qu’elles ont pu être évaluées par des carottages des sédiments dans les baies d’Osaka et de Tokyo. La conclusion de ces travaux est sans appel : lors du changement de polarité du champ magnétique terrestre l’intensité du champ magnétique diminue dramatiquement pour atteindre une valeur d’environ 25 % seulement de celle normalement relevée au cours d’un cycle normal de ce champ magnétique terrestre. Il en résulte une formation beaucoup plus fournie de nuages provoquée par le conflit normalement existant entre l’air froid sibérien entrant dans la région de l’archipel nippon qui se confronte avec l’air chaud et humide océanique provenant du sud de l’archipel. Cette situation a pour effet de favoriser un effet d’ombrelle nuageuse plus important que la normale en raison de l’intensité du bombardement cosmique, le champ magnétique terrestre n’étant plus assez efficace pour atténuer l’effet de ce bombardement cosmique sur la formation de nuages.

Capture d’écran 2019-07-14 à 19.22.49.png

On peut constater qu’il s’agit d’une vérification indirecte des hypothèses formulées par Svensmark sur l’influence combinée des champs magnétiques solaire et terrestre sur la protection de la Terre vis-à-vis des rayons cosmiques et de leur effet sur le climat. L’IPCC n’a jamais mentionné ce type de paramètre dans leurs nombreux modèles d’évolution de la température moyenne de la Terre, et pour cause, c’est tout aussi compliqué à modéliser que les nuages … Cette « ombrelle nuageuse » comme les géophysiciens japonais l’ont appelée a eu pour résultat une série d’épisodes de refroidissement du climat sur la période 1 million d’années – 200000 ans avant l’ère commune qui a fait l’objet de ces études.

Quelle horreur ! Remonter des centaines de milliers d’années en arrière pour expliquer le climat terrestre actuel qui préoccupe le monde entier doit paraître une hérésie profonde car la science climatique infuse est exclusivement du domaine de l’IPCC puisque pour cet organisme il suffit de « modéliser » pour savoir quel temps il fera en 2100. Et il faut croire cet organisme de fonctionnaires internationaux richement rémunérés par les impôts des contribuables du monde entier, nous n’avons plus le choix, c’est ce que ne cessent de répéter inlassablement tous les gouvernements des pays développés, dont en particulier les ministres des « transitions énergétiques », naturellement tous encartés aux partis verts locaux qui ont voué leur carrière politique à la cause climatique, quelques que soient leurs agissements privés par ailleurs : ils sont les seuls à détenir le savoir, point barre.

Et pourtant ces travaux ont mis indirectement en évidence le fait que les nuages, indépendamment de la cause de leur abondance relative au cours du temps, sont le paramètre naturel majeur de la sensibilité du climat comme cela va être exposé ci-après.

Venons-en donc maintenant aux travaux de Kauppinen et Malmi, deux Docteurs en géophysique de l’Université de Turku en Finlande. Les choses se compliquent sérieusement pour l’IPCC obsédé depuis sa création par le CO2. Le titre de leur publication est évocateur sinon provocateur : « Pas d’évidence expérimentale en faveur d’un changement du climat d’origine humaine » (arXiv : 1907.00165v1 [physics.ao-ph] 29 juin 2019, via Cornell University). Il existe une très large incertitude dans la communauté scientifique en ce qui concerne la sensibilité du climat, c’est-à-dire la résultante des divers facteurs affectant le climat, sensibilité qui se mesure en degrés Celsius. Certains modèles affirment que cette sensibilité est proche de zéro alors que d’autres modèles prédisent des augmentations de température pouvant atteindre 9 degrés C en cas de doublement de la teneur atmosphérique en CO2. La plupart de ces modèles utilisent une théorie dite « modèle de circulation générale » pour leurs estimations. Les modèles considérés comme plausibles par l’IPCC prévoient des sensibilités entre 2 et 5°C mais il y en a d’autres qui n’arrivent pas à dégager une quelconque sensibilité :

Capture d’écran 2019-07-13 à 18.10.21.png

Pour se faire une opinion de ce qui se passe dans la réalité il est nécessaire pour analyser l’anomalie de température par rapport à une moyenne, ce qu’indiquent les modèles, de faire la distinction entre les facteurs naturels et les gaz à effet de serre. Le rapport AR5 de l’IPCC stipulait que les facteurs naturels ne pouvaient pas expliquer l’évolution récente des températures comme l’indiquait en résumé la figure ci-dessous où les observations sont matérialisées par un trait noir, le facteur anthropogénique avec ses incertitudes en rose et les « facteurs naturels en bleu :

Capture d’écran 2019-07-16 à 18.50.49.png

L’un des facteurs naturels influant sur la température moyenne est la couverture nuageuse qui est disponible à partir des observations satellitaires. En rassemblant sur un même graphique les données relatives aux températures moyennes observées, plutôt leur écart par rapport à une moyenne fixée à 15°C, et les variations de la couverture nuageuse exprimées par rapport à une superficie égale à 26 % de la surface terrestre, on peut constater de cette représentation que quand il y a beaucoup de nuages, les températures ont tendance à diminuer et inversement quand cette même couverture nuageuse diminue l’écart des températures par rapport à la moyenne augmente positivement. On ne peut qu’en déduire que les nuages bloquent l’énergie solaire qui atteint moins efficacement la surface du sol ou des océans et par conséquent la température qui y est mesurée diminue :

Capture d’écran 2019-07-13 à 17.20.10.png

Dans cette figure le zéro de l’ordonnée pour les températures est 15°C et le Δc est la fraction exprimée en pourcentage correspondant au changement de la couverture nuageuse par rapport à la moyenne globale de 26 % de couverture nuageuse basse sur l’ensemble de la surface de la Terre.

Or, les modèles utilisés – forcing naturel seulement ou forcing naturel + forcing anthropogénique – devraient en toute logique se superposer autour de la courbe noire des observations si le forcing naturel considéré dans ces modèles prenait correctement en compte la contribution des nuages bas (voir la figure précédente figurant dans le rapport AR5 de l’IPCC. Force est de constater qu’il n’en est rien.

Mais si on superpose l’anomalie des températures observées entre l’été 1983 et l’été 2008 avec les observations globales de la couverture nuageuse, on va remarquer, bien qu’il y ait un « bruit de fond » important, que si on multiplie les données de couverture nuageuse exprimées en pourcentage de la moyenne sur cette période, un nombre sans dimension physique, par « moins » 0,11°C / % (-0,11) on retrouve grosso modo la même courbe que celle décrivant l’anomalie des températures :

Capture d’écran 2019-07-13 à 17.21.19.png

Les valeurs « zéro » pour chacune de ces grandeurs ΔT (en degrés) et Δc ( en %) sont respectivement, il est important de le rappeler encore une fois, de 15°C et 26 % pour les deux graphiques. Ce facteur multiplicatif -0,11 introduit une valeur physique, des degrés centigrades, à la couverture nuageuse exprimée en pourcentage qui peut alors être corrélée à la sensibilité climatique elle-même exprimée en degrés C.

Nous allons découvrir que ce facteur multiplicatif de « moins 0,11 °C » n’est pas sorti comme par magie d’un chapeau. Force est de constater qu’il existe une remarquable concordance entre ces deux courbes. Qu’est-ce que cela signifie ? Les anomalies de température telles qu’indiquées en rouge dans la première figure tiennent compte des facteurs naturels et de l’effet des gaz à effet de serre sur la sensibilité climatique, alors que dans cette première figure la courbe bleue n’indiquait que le facteur naturel qu’est la couverture nuageuse. Il est opportun de rappeler ici que cette couverture nuageuse est mesurée 24/24 heures à l’aide de radars installés sur des satellites et que les températures sont appréciées par thermométrie infra-rouge également avec l’aide de satellites. Cette concordance signifie tout simplement qu’il n’y a pas lieu de considérer un quelconque effet des gaz dits à effet de serre puisque températures et couverture nuageuse sont directement liées !

Les contradicteurs pourront toujours arguer du fait que le laps de temps indiqué dans ce travail est trop court. Il a pourtant été tenu compte des données satellitaires homogènes disponibles. Toute disparité dans ces observations aurait nécessité des corrections pouvant prêter à contestation. D’autres remarques seraient du genre : mais puisque l’IPCC affirme que l’évolution des températures entre 1983 et 2008 est uniquement explicable par l’augmentation de la teneur en CO2 atmosphérique de 343 à 386 ppm, donc c’est vrai, point final. Effectivement, la température moyenne globale, une notion, certes, contestable sur le plan strictement physique, a augmenté durant cette période de 0,4 °C. Conformément à la théorie développée par ces mêmes auteurs ( arXiv:1812.11547v1, décembre 2018 via Cornell University) et le résultat illustré par les deux courbes ci-dessus directement déduit de cette théorie, si la concentration en CO2 augmente de Co à C et double ( C = 2Co) le ΔT obéit à la loi suivante :

Capture d’écran 2019-07-13 à 17.02.47.png

où ΔT2CO2 est le changement global de la température et Δc le changement de la couverture nuageuse. Le premier terme de l’équation décrit l’effet du CO2 sur la sensibilité du climat et le second terme l’effet naturel – les nuages – indépendamment du CO2. En replaçant ΔT2CO2 par la valeur de la sensibilité du climat au CO2 qui est de 0,24 °C alors selon le premier terme de l’équation ci-dessus la contribution du CO2 n’est que de 0,04 °C. C’est la raison pour laquelle cette minuscule augmentation est invisible dans le deuxième graphe ci-dessus. Ce même calcul peut être transposé en tenant compte non plus de la couverture nuageuse de basse altitude mais de l’humidité ou teneur en vapeur d’eau de l’atmosphère, une grandeur également mesurable à l’aide de satellites et les auteurs sont arrivés aux mêmes conclusions.

Ces résultats conduisent donc à la révélation surprenante qui est la surévaluation de la sensibilité climatique au CO2 d’un facteur 10 par l’IPCC car la rétro-action négative des nuages sur la température a tout simplement été ignorée. De plus la contribution de l’activité humaine à l’accroissement du CO2 atmosphérique total étant de l’ordre de 4 % alors on ne peut que conclure que le réchauffement climatique d’origine humaine n’existe tout simplement pas ! Durant les dernières 100 années la température globale moyenne a augmenté de 0,1 °C et la contribution humaine, c’est-à-dire l’augmentation du CO2 atmosphérique n’a été que de 0,01 °C dans la sensibilité du climat. La couverture nuageuse contrôle donc principalement la température.

Le fait que l’équipe japonaise ait mis en évidence un rôle majeur des rayons cosmiques dans la formation de la couverture nuageuse constitue une explication d’une grande importance pour la compréhension des changements du climat, passés mais aussi à venir. Oublions l’inversion des pôles magnétiques terrestres qui est un processus s’étendant sur des centaines de milliers d’années. Il faut rappeler que sur une échelle de temps de l’ordre de quelques dizaines d’années le facteur naturel ayant une influence prépondérante sur les variations de la couche nuageuse est l’activité magnétique solaire. La Terre évolue dans le champ magnétique solaire et le rôle protecteur de ce champ magnétique contre les rayons cosmiques dépend directement de son intensité (voir note en fin de billet). La faiblesse du cycle solaire (#24) finissant et les prévisions plutôt pessimistes pour le cycle solaire suivant (#25) ne sont pas encourageantes pour la « sensibilité climatique », en d’autres termes pour la température moyenne qui sera ressentie durant les années à venir.

Notes. Le facteur multiplicatif -0,11 n’est pas une vue de l’esprit mais le résultat d’une longue étude qui a été publiée en 2018 et mentionnée ci-dessus. Je suggère à ceux de mes lecteurs qui voudraient contester le contenu non pas de mon billet mais celui des travaux de J. Kauppinen et P. Malmi de lire les deux articles cités en référence ou encore de s’adresser directement à ces auteurs dont voici l’ e-mail : jyrkau@utu.fi

Note. Le champ magnétique solaire est beaucoup plus puissant et étendu que celui de la Terre. Ce champ dévie les rayons cosmiques, j’ai écrit de nombreux billets à ce sujet. Le champ magnétique terrestre dévie également certains rayons cosmiques mais son rôle majeur dans la protection de la vie sur la Terre est de piéger les particules émises par le Soleil qui constituent le vent solaire.

Maladie d’Alzheimer : un refroidissement du cerveau ?

Capture d’écran 2016-04-12 à 15.23.05.png

La température du corps est contrôlée par l’hypothalamus et des organes tels que le foie, le coeur, les muscles qui produisent de la chaleur pour maintenir cette température à une valeur proche de 37 degrés. Pour parfaire cette régulation et en cas d’urgence, par exemple quand on se trouve dans un environnement froid, l’organisme s’arrange pour « brûler » à perte des graisses qu’il trouve principalement dans le tissu adipeux brun. En effet, contrairement au tissu adipeux blanc devenant souvent pratiquement inutile à l’organisme sinon pour défigurer la silhouette, le tissu adipeux brun présente cette couleur caractéristique car ils est riche en mitochondries. Les mitochondries sont les centrales thermiques de l’organisme et elles sont capables de brûler du glucose, leur carburant habituel, mais aussi des acides gras et bien d’autres déchets cellulaires. Leur rôle est de fournir de l’énergie sous forme d’ATP mais aussi de la chaleur.

Avec l’âge, la température du corps a tendance à diminuer et par exemple la consommation de glucose dans certains tissus, dont le cerveau, diminue également. Dans le cas de la maladie d’Alzheimer (AD) cette hypothermie peut être prononcée malgré le fait qu’il n’existe pas de données précises à ce sujet, et la consommation de glucose au niveau de l’hypothalamus s’effondre. La température du corps varie aussi au cours de la journée et a tendance à diminuer lors des phases de sommeil. Chez les personnes souffrant d’AD ce refroidissement nocturne tout relatif puisqu’il n’est que de un degré voire un peu plus est retardé en comparaison de sujets sains du même âge. Y aurait-il alors une relation de cause à effet (ou l’inverse) entre cette diminution de la température corporelle et l’AD ?

C’est ce qu’a tenté d’élucider une équipe de biologistes de l’Université Laval à Québec dirigée par le Docteur Frederic Calon en utilisant le modèle murin maintenant largement utilisé de la maladie d’Alzheimer, des souris transgéniques exprimant en vieillissant la protéine tau et la protéine beta-amyloïde, marqueurs de cette maladie, et qui, en outre, présentent des déficiences cognitives caractéristiques. Il s’agit de souris homozygotes dites 3xTg-AD. Comment explorer l’effet de la température sur l’évolution de l’AD ? Tout simplement en soumettant les souris à de basses températures et en suivant l’évolution de l’apparition de plaques amyloïdes, de la protéine tau et de divers autres marqueurs comme l’expression d’une protéine appelée UCP1, acronyme de uncoupling protein, encore appelée thermogénine, qui intervient dans la régulation de la fonction particulière des mitochondries à produire de la chaleur au niveau précisément du tissu adipeux.

Quand les mitochondries sont « découplées » elles consomment de l’énergie dans le seul but de produire de la chaleur, un peu comme si une centrale électrique brûlait du charbon sans produire d’électricité. Et ce processus se situe essentiellement dans le tissu adipeux brun. En soumettant les souris au froid l’activité métabolique du tissu adipeux brun est augmentée, certes, mais pas suffisamment pour réguler la température corporelle. Celle-ci diminue de près de 1,5 degrés quand les souris vivent à une température ambiante de 4 degrés pendant 24 heures voire plus, alors que l’expression de l’UCP1 est accélérée. Tout se passe donc comme si l’organisme de ces souris génétiquement modifiées n’arrivait pas à répondre au stress thermique malgré les marqueurs indiquant que pourtant le tissu adipeux brun est parfaitement stimulé pour remplir sa fonction de régulation de la température. De plus l’exposition au froid a également pour résultat d’accélérer la modification de la protéine tau sans pour autant modifier significativement l’évolution de la protéine amyloïde beta. Quant aux fonctions cognitives des souris, il n’est malheureusement pas facile de les quantifier au cours de cette exposition au froid car les souris sont engourdies et ne répondent pas aux sollicitations de l’expérimentateur.

Pour tenter d’élucider ce qui se passe intimement au niveau cellulaire en exposant ces mêmes souris à une température externe de 28 degrés, il y a comme un retour à la normale. Pour les humains et les souris cette température est le point dit de thermoneutralité : l’organisme n’a plus besoin de dépenser d’énergie pour maintenir sa température à 37 degrés et il n’a pas non plus besoin de dépenser de l’énergie pour se refroidir. Chez l’homme la température de thermoneutralité se situe entre 25 et 30 degrés. La thermorégulation est commandée par l’hypothalamus via le système nerveux sympathique et il s’agit d’un processus complexe, les mitochondries du tissu adipeux y jouant un rôle central. Comme les maladies neurodégénératives semblent également être provoquées par un mauvais « nettoyage » des déchets apparus lors de la sénescence et de la mort des cellules, les mitochondries jouent également un rôle loin d’être négligeable dans ce nettoyage en particulier pour satisfaire à la demande en énergie.

Lors du vieillissement de l’organisme les mitochondries sont particulièrement vulnérables, comme l’a montré l’équipe du Docteur Hayashi (voir le lien sur ce blog), à la disponibilité en glycine qui dépend d’activités enzymatiques présentes dans le cytoplasme et dont l’expression est programmée par le noyau. La chute de cette disponibilité en glycine perturbe la capacité respiratoire des mitochondries au point d’induire des perturbations de l’ensemble de l’état métabolique de la cellule et par voie de conséquence de provoquer dans l’organisme des phénomènes inflammatoires délétères.

Est-ce aussi le cas pour la régulation thermique qui se dégrade au cours du vieillissement et l’apparition de la maladie d’Alzheimer ? Il faudra encore réunir de nombreuses évidences pour comprendre exactement ce qui se passe intimement dans les cellules et leurs mitochondries dont évidemment et en particulier les neurones.

Au cas où, je vais continuer à avaler une dizaine de grammes de glycine chaque jour …

Source : Neurobiology of Aging (2016), doi: 10.1016/j.neurobiolaging.2016.03.024 , article aimablement communiqué par le Docteur Calon qui est ici vivement remercié.

https://jacqueshenry.wordpress.com/2015/06/08/rester-jeune-tres-simple-gavez-vous-de-glycine-acide-amino-acetique/

Le réchauffement climatique : vaste fumisterie !

 

Un des arguments (alarmants) des tenants du réchauffement climatique est le réchauffement des océans et leur acidification en raison de l’augmentation de la teneur en gaz carbonique dans l’atmosphère. Certes, le gaz carbonique peut conduire à une diminution du pH de l’eau océanique d’une centième d’unité (acidification) pour 100 parties par million d’augmentation du taux de gaz carbonique atmosphérique, ce qui a été grosso modo avancé lors de diverses conférences et colloques sur le climat, mais un autre facteur est le réchauffement des mêmes océans. En effet, selon la loi de Henry, la solubilité des gaz dans l’eau est inversement proportionnelle à la température, en conséquence plus l’eau océanique se réchauffe moins le gaz carbonique produit par l’activité humaine (entre autres) se dissout dans la mer et son effet comme gaz à effet de serre, bien connu des écologistes, se fait encore plus sentir.

La température des océans est mesurée en continu par un ensemble mondial de sondes flottantes dérivant au gré des courants et des vents qui explorent une épaisseur de l’océan d’environ 1000 mètres. Les données sont transmises par satellite et analysées minutieusement pour obtenir des images statistiques du réchauffement ou du refroidissement global ou ponctuel de telle ou telle portion des océans qui couvrent les quatre cinquièmes de la planète. Les données peuvent être être rendues lisibles en joules ou en degrés, c’est selon, les joules correpondant à une quantité de chaleur ou encore à l’énergie emmagasinée dans l’eau et directement liée à sa température. Donc, les mesures obtenues par les balises du système Argo permettent peu ou prou d’estimer d’une manière relativement fiable s’il y a réchauffement climatique, ou non, lié à l’augmentation de la teneur en gaz carbonique dans l’atmosphère.

Un graphe intéressant reproduit ici permet de voir immédiatement que le réchauffement climatique (réchauffement des océans) marque une pause depuis dix ans.

noaa_upper_ocean_heat_content

From PMEL at http://oceans.pmel.noaa.gov/

The plot shows the 18-year trend in 0-700 m Ocean Heat Content Anomaly (OHCA) estimated from in situ data according to Lyman et al. 2010. The error bars include uncertainties from baseline climatology, mapping method, sampling, and XBT bias correction.

Dans le gaphique ci-dessus le réchauffement est exprimé en joules, donc en énergie, mais il peut aussi s’exprimer en degrés … Et ça donne ceci :

degrees-pmel-0-700m-heat-content-anomaly

Source : http://wattsupwiththat.com/2013/02/25/ocean-temperature-and-heat-content/#more-80690

Vous avez noté ! Entre 1996 et 2003, les océans se sont « réchauffés » de 0,1 degrés et depuis c’est le calme plat.

Or, selon Gary B. Brassington et Peter R. Oke du BMRC, Melbourne, Victoria, Australia et du CSIRO Marine and Atmospheric Research dans leur article intitulé « Error estimates for Argo profile observations based on an ocean reanalysis in the Austral-asian region », l’incertitude des mesures des sondes du système Argo est du même ordre de grandeur que les différences de température relatées dans le dernier graphique ci-dessus soit environ 0,1 degré, compte tenu de nombreux paramètres dont la non simultanéité entre les mesures de température et la localisation des sondes toutes deux transmises par satellite. Qui croire ?

Le réchauffement climatique est semble-t-il une vaste fumisterie pour amuser la galerie et donner une bonne occasion aux politiciens de rançonner les industries (et les particuliers) en fonction de leurs émissions de gaz carbonique, gaz à effet de serre. Comme l’illustrent ces données laissant libre cours à n’importe quel pseudo-scientifique pour une interprétation erronnée ou tendancieuse, c’est selon, ce soit-disant réchauffement climatique est une vue de l’esprit coûteuse et, pour le moment au moins, non prouvé de manière irréfutable surtout quand les membres du GIEC, auto-proclamés spécialistes du climat, s’appuyent sur des données dont les incertitudes sont égales ou supérieures à ce qu’elles signifient intrinsèquement.

De plus, la pause décelée en dépit des incertitudes des mesures vient infirmer toutes les autres affirmations alarmistes de ces pseudo-scientifiques.

Encore un bel exemple d’escroquerie !