Les « trans-fats » altèrent les performances intellectuelles

800px-Margarine

L’une des premières communications scientifiques du congrès de l’American Heart Association de cet automne a décrit les dommages induits par la consommation d’acides gras « trans » sur la mémoire non plus des personnes du troisième âge mais des hommes de moins de 45 ans. L’étude a en effet été réalisée sur un échantillon de 1000 hommes par la faculté de médecine de l’Université de San Diego et indépendamment de critères tels que l’âge, l’éducation, l’origine ethnique ou même un état dépressif, la consommation d’acides gras trans a systématiquement altéré l’aptitude de ces personnes à réussir un test simple de mémorisation de mots écrits sur 104 cartes différentes.

Le test pourtant très simple consistait à retrouver les mots dupliqués dans cette collection de cartes. Le régime alimentaire de chacun des sujets a été épluché soigneusement pour déterminer la quantité d’acides gras trans dans leur alimentation. Il s’est avéré que plus la quantité d’acides gras trans consommés était élevée plus le nombre d’erreurs augmentait. Or on sait que les acides gras trans perturbent le métabolisme énergétique cellulaire et amplifie le stress oxidatif. Dans le Laboratoire du Docteur Beatrice Golomb il a été aussi montré récemment que le chocolat noir réduisait ce stress oxidatif et améliorait les fonctions cognitives. Avec les acides gras trans c’est exactement le contraire qui se produit. Or on sait maintenant que ces acides gras sont mal reconnus par l’organisme et favorisent le développement de maladies cardiovasculaires, d’obésité et de cancers.

Pourtant les industriels de l’agro-alimentaire continuent à les utiliser dans de nombreux produits alimentaires pré-cuisinés, dans les fast-foods, les pizzas congelées, les crèmes en tout petits pots qu’on ajoute à son café qui n’ont plus rien à voir avec de la vraie crème et bien d’autres produits industriels.

Le Docteur Golomb n’y va pas par quatre chemins en déclarant, je cite : « Les trans-fats se sont avérées très étroitement liées à une dégradation de la mémoire chez des hommes jeunes en pleine activité professionnelle. Du point de vue de la santé la consommation de trans-fats a été liée à un surpoids, à plus d’agressivité et à des troubles cardiaques. Comme je le dis à mes patients, les trans-fats augmentent peut-être la durée de vie de certains aliments sur les linéaires des supermarchés, mais elles réduisent la durée de vie des gens ». Une étude similaire réalisées sur des femmes ménopausées a montré les mêmes résultats catastrophiques et une autre étude est en cours sur un échantillon de femmes de 20 à 45 ans pour préciser si on observe les mêmes effets en relation avec leur statut hormonal différent. Les acides gras trans ou trans-fats proviennent essentiellement du processus d’hydrogénation des triglycérides permettant d’obtenir une matière grasse solide à la température ambiante (margarine) contrairement aux huiles et largement utilisée dans la préparation de nombreux produits alimentaires pré-cuisinés ainsi que de nombreuses pâtisseries.

Bon appétit !

Source : American Heart Association et http://newsroom.heart.org/file?fid=544fa4e7ee750e20dd007750, illustration : margarine (Wikipedia).

Nouvelles chroniques japonaises # 2 : la veuve noire

Capture d’écran 2014-11-20 à 16.33.05

Une sexagénaire bon-chic-bon-genre a été arrêtée mercredi dans la banlieue de Kyoto pour assassinat. À 67 ans cette respectable veuve, riche de surcroit puisque sa fortune est estimée à près de 6 millions d’euros, est poursuivie pour l’assassinat avec du cyanure de son dernier époux en décembre dernier à peine deux mois après l’avoir épousé … en septièmes noces ou presque ! L’autopsie avait révélé des concentrations conséquentes de cyanure dans le sang du défunt. Chisako Kakehi, à peine deux mois avant d’épouser son dernier époux, se payait du bon temps avec un septuagénaire de 8 ans son aîné. Celui-ci se trouva subitement malade après un bon dîner dans un restaurant, tellement malade qu’il en mourut.

L’enquête menée par la police, s’intéressant au passé de cette ancienne employée de banque, a finalement soupçonné sinon acquis pour partie la certitude que cette femme était une empoisonneuse en série depuis vingt ans et qu’elle avait accumulé sa fortune sous forme d’assurances vies et de donations de ses divers époux et amants. Son premier mari mourut à l’âge de 54 ans en 1994, c’est un peu prématuré pour un Japonais, et Chisako eut peut-être la révélation consistant à vite se remarier, capter les biens de son nouvel époux et de s’en débarrasser le plus promptement possible pour arrondir ses fins de mois d’employée de banque anonyme. Son deuxième mari rencontré par l’intermédiaire d’une agence matrimoniale mourut quelques années après leurs épousailles d’une hémorragie cérébrale. L’histoire ne dit pas si ce fut à la suite d’un empoisonnement. Dans le doute on ne peut pas accuser cette dame d’un premier (ou d’un deuxième) assassinat et ce d’autant plus que l’incinération est une pratique courante au Japon et qu’il ne reste plus aucunes traces de ces deux hommes. À peine remariée, son troisième mari mourut lui aussi soudainement en 2008. Le vieil homme avait seulement 75 ans. Ayant peut-être peur de la solitude, peu de temps après son troisième veuvage, cette femme, visiblement attirée irrésistiblement par les hommes peut-être pas tout à fait pour les raisons qu’on imagine, se trouva un amant mais leurs amours ne durèrent que quelques mois car le malheureux, qui souffrait d’une forme de cancer non encore précisée par l’enquête réouverte pour la bonne cause, mourut dans un accident de moto. L’autopsie qu’on pratiqua pour apaiser la compagnie d’assurance comme elle est en droit de l’exiger révéla des traces de cyanure dans son sang. Ça se passait en 2012. D’après la dépêche d’agence il semblerait qu’elle ait eu amplement le loisir de refroidir un autre amant après l’accident de moto du précédent et avant de se remarier pour la cinquième fois en justes noces, mariage qui ne dura que quelques mois puisqu’il se termina fâcheusement par une bonne dose de cyanure qui lui fut tout aussi fatale qu’à son mari puisqu’elle risque la peine de mort.

La police de Kyoto n’a pu que constater que la Dame Kakehi clamait son innocence et qu’elle avait grandement souffert de la mort de tous ces hommes qu’elle avait sincèrement aimé. S’il s’avérait que cette respectable femme est coupable d’assassinats en série lui ayant permis de devenir millionnaire, ce qui est maintenant hautement probable, elle serait la plus prolifique des veuves noires qu’ait connu le Japon. Reste à expliquer pourquoi les hommes se précipitaient vers elle … possiblement par attrait de l’argent, mais l’information ne le dit pas puisqu’ils sont tous morts.

Source : Agence Jiji

En un baiser de 10 secondes 80 millions de bactéries passent d’une bouche à l’autre !

Capture d’écran 2014-11-18 à 19.21.44

Si les oiseaux, les primates et encore certains poissons ont pour coutume de pratiquer le bouche-à-bouche pour diverses raisons, les hommes et les femmes sont les seuls à se livrer à des baisers intimes impliquant le plein contact des langues et l’échange de salive. Ce comportement résulte d’une adaptation du comportement de séduction unique au genre humain. Cette attitude est responsable d’un échange de bactéries et de virus présents dans la cavité buccale mais cet aspect microbiologique du baiser intime n’avait jamais été étudié en détail jusqu’à cette étude réalisée à l’Université d’Amsterdam et parue dans le périodique Microbiome disponible on-line : http://www.microbiomejournal.com/content/2/1/41

Inutile d’épiloguer sur l’importance sociale du baiser mais il faut rappeler quelques faits. Le baiser intime constitue la première étape du rapprochement entre deux êtres. Le premier baiser est une sorte de ballon d’essai pour détecter une éventualité de rapprochement impliquant plus que ce rapprochement des lèvres et des langues, les baisers suivants étant destinés à affermir une relation future mais l’apparition du désir sexuel ne s’explique que par la production encore une fois d’ocytocine, l’hormone de l’amour, le baiser étant une source de plaisir, personne ne peut le nier. Quant à la détection des saveurs chimiques de la salive, il y a bien longtemps que nous avons perdu cette faculté de discernement de la nature de la communauté bactérienne de la surface de la langue. Une autre hypothèse de l’utilité du baiser serait que l’acquisition du cytomegalovirus avant la conception aurait pour but de protéger le fœtus lors d’une grossesse future en accélérant une forme d’immunisation de la future mère contre ce virus pouvant provoquer des dommages sérieux au fœtus.

La cavité buccale renferme environ 700 bactéries différentes, la plupart vivant en anaérobiose. L’étude relatée dans ce billet concernait 21 couples dont deux couples homosexuels. Des échantillons de salive et des prélèvements du film bactérien lingual ont été analysés par séquençage de l’ARN ribosomique, soit un total de 84 échantillons. L’espèce bactérienne la plus présente et la plus abondante est un Streptocoque. Les autres bactéries prédominantes sont Rothia, Neisseria, Granulicatella, Haemophilus, Gemella, (Lactobacillus), Actinomyces, Veillonella, Fusobacterium, Prevotella, Leptotrichia, Porphyromonas, Oribacterium et Campylobacter dans l’ordre de l’illustration en fin de billet. Toutes sont connues pour être présentes dans la bouche. La première information est que les couples stables partagent une flore microbienne buccale quasiment identique et l’homogénéité de cette flore est atteinte et maintenue avec une dizaine de baisers quotidiens. L’équilibre de la flore d’un individu évolue rapidement après un baiser en raison de l’apport d’autres bactéries par le (la) partenaire. L’étude a tout de même montré que pour maintenir dans un couple une identité de la communauté microbienne buccale il fallait que ces couples s’embrassent au moins toutes les 100 minutes !

Pour évaluer la vitesse de transfert de bactéries au cours d’un baiser, le protocole le plus simple a été de demander à l’un des membres du couple de manger un yaourt ou un lait fermenté contenant un probiotique comme par exemple un Lactobacillus (delbrueckii bulgaricus) facilement reconnaissable. Après avoir mangé un yaourt, la flore buccale du « donneur » contenait entre 7 et 12 % de Lactobacillus et après un baiser de 10 secondes, celle du « receveur » contenaient environ 0,5 % de Lactobacillus. En considérant que les prélèvements contenaient jusqu’à deux milliards de Lactobacillus par millilitre de salive il a pu en être déduit qu’un baiser de 10 secondes permettait aisément le transfert de 80 millions de bactéries ! Enfin, la nature des bactéries localisées sur la langue présente une remarquable stabilité au cours de la journée ainsi qu’entre partenaires d’un même couple mais ce n’est pas tout à fait le cas pour la salive.

Capture d’écran 2014-11-18 à 19.27.08

Petite explication de l’illustration. Partie supérieure : résumé du protocole d’étude du transfert de bactéries au cours d’un baiser durant 10 secondes. Les échantillons sont prélevés avant le baiser (barre bleue), après le baiser (barre rouge). L’un des partenaires ingère 50 ml de yaourt (barre jaune) et après un autre baiser le transfert de Lactobacilles est quantifié chez l’autre partenaire (barre verte). Partie inférieure : abondance relative des dix principales bactéries. Les codes couleurs du protocole se retrouvent : bleu, rouge, jaune ou vert. L’abondance des bactéries est symbolisée par une représentation logarithmique imagée par des couleurs de froides vers chaudes selon l’abondance. On remarque que le transfert de Lactobacilles pour trois couples différents varie légèrement et que la salive du partenaire II (receveur) du couple III renferme des Lactobacilles avant le baiser de transfert (colonne bleu, saliva) ceci étant indiqué par le rectangle bleu-roi (log égal à 4 soit 10000) alors que ce même lactobacille ne se retrouve pas sur la langue. Un log égal à 12 correspond à mille milliards de bactéries ; tongue = langue.

Embrassez-vous quand vous voudrez pour être en pleine harmonie bactérienne avec votre partenaire … Illustration : A bactéries de la langue, B bactéries de la salive.

Nouvelles chroniques japonaises # 1 Le whisky Yamazaki

Capture d’écran 2014-11-17 à 16.02.41

Puisque je séjourne pour quelques semaines à Tokyo, je reprends ce cycle de chroniques tokyoïtes et japonaises et pour ce premier billet je vais révolter les amateurs de pur malt de derrière les mottes de tourbe des Highlands car le Japon a accédé à la top position du classement de la dernière édition de la Jim Murray’s Whisky Bible !

Le penchant des Japonais pour le whisky n’est pas récent puisque dès 1923 Shinjiro Torii construisit sa première distillerie à Shimamoto, dans la banlieue de Kyoto, qu’il appela Yamazaki. Cet adepte d’alcools forts était brasseur à l’origine et il fut également le fondateur de Suntory, l’une des trois grosses « maisons » de bière du Japon avec Sapporo et Asahi. Pour la bière, le Japon se diversifie aujourd’hui en une multitude de petites brasseries artisanales qui produisent des breuvages de qualité à l’image des Trappistes belges très prisées des amateurs de bière. Des bières single malt de caractère, pourquoi pas du whisky ? C’est exactement ce que se dit Shinjiro Torii en ces temps où le Japon voulait s’occidentaliser à grande vitesse.

Capture d’écran 2014-11-17 à 16.03.21

Dans la tradition de Shinjiro Torii, tout est affaire de tradition au Japon, le whisky Yamazaki de Suntory, est vieilli dans des fûts de chêne spécialement choisis en provenance de France et ayant par exemple contenu des vins comme du Xérès ou du vin de Madère après avoir été distillé avec des appareils adaptés souvent artisanaux. L’addition infime de décoctions de plantes aux arômes subtils permet d’atteindre une finesse et une sophistication qui rend les whiskys japonais comparables à des œuvres d’art qui transportent le dégustateur vers des sommets de satisfaction. Un amateur de whisky sera prêt à débourser 150000 yens, soit 1000 euros pour une bouteille de ce joyau de 12 ans d’âge très haut de gamme. Le paradoxe de la recherche de la qualité « made in Japan » réside dans le fait que la distillerie Yamazaki exporte plus de 60 % de sa production aux USA, en Chine ou à Singapour mais aussi … en Grande-Bretagne, shocking aurait dit Churchill !

Source : DailyBeast, illustrations Wikipedia

Note : la marque Suntory provient de la contraction des mots Torii et Sun, le terme « sun » (se prononce ‘sane’) étant un suffixe familièrement accolé à un nom ou un prénom dans une conversation et signifie en fait « monsieur », « madame » ou « mademoiselle ». Dans le cas présent la marque de bière aurait du s’appeler Toriisun car le mot sun est en réalité un suffixe mais suntory « sonnait mieux », d’où l’histoire de la marque Suntory en romanji, romanji étant l’alphabet romain utilisé au Japon.

Théorie de l’effet de serre atmosphérique : suite et fin

 

Un de mes fidèles lecteurs, et pas n’importe qui puisqu’il s’agit du Dr Gerhard Stehlik, physico-chimiste allemand, m’a communiqué ce billet (à lire ci-après) que je m’empresse de mettre sur mon blog car sa teneur mettra peut-être définitivement un terme à l’imposture de « la théorie de l’effet de serre » et de la contribution du CO2 dans ce frauduleux montage. Je voudrais faire ici un petit rappel historique sur mon approche personnelle dans ce blog parfois entachée d’erreurs de ma part de «la théorie de l’effet de serre ». Le premier point immédiatement choquant est que cette théorie est en violation directe avec le deuxième principe de la thermodynamique qui précise qu’il ne peut pas exister de transfert d’énergie d’un corps froid vers un corps plus chaud sans intervention mécanique externe. C’est exactement sur ce principe que fonctionnent les réfrigérateurs ou les conditionneurs d’air. Il existe dans ces systèmes fermés un apport d’énergie extérieur à ce dernier en l’occurrence un moteur électrique qui actionne un compresseur et un ventilateur qui disperse le froid dans le cas du conditionneur d’air ou la chaleur dans le cas du réfrigérateur. C’est ce qu’a exposé intuitivement Sadi Carnot au XIXe siècle et ce principe n’a jamais été infirmé depuis sauf … par les climatologues de l’IPCC, et pour une raison que le billet suivant va permettre enfin et définitivement de mettre au jour. Car c’est sur ce point que cette gigantesque imposture contraire aux principes les plus fondamentaux de la thermodynamique est basée, imposture qui est déjà en train de créer des ravages irréparables dans de nombreuses économies occidentales par l’adoption de programmes de restructuration du paysage énergétique totalement surréalistes et astronomiquement coûteux pour l’ensemble des citoyens et des entreprises sous le fallacieux prétexte que le CO2 présenterait un « effet de serre ».

Le deuxième point troublant dans cette histoire de réchauffement climatique que j’ai aussi soulevé à plusieurs reprises est la négation ou la minimisation systématique par ces « experts en science climatique » de l’influence de l’activité solaire et de son évolution sur justement l’évolution du climat terrestre. J’ai écrit de nombreux billets dans ce sens qui ont eu pour mérite de révéler les omissions volontaires et les manipulations scandaleuses de l’IPCC avec notamment la fameuse courbe de réchauffement en forme de crosse de hockey qui niait (et qui nie toujours) purement et simplement l’existence de l’optimum climatique médiéval ainsi que le minimum de Maunder. Si on appelle ce genre de manipulation de la science il faudrait donc urgemment trouver une autre définition du mot science. Enfin, j’ai tenté de remettre au goût du jour, toujours dans mon blog, le gradient adiabatique gravitationnel auquel est soumis l’atmosphère et qui n’a apparemment pas été non plus pris en compte par les « experts », bénévoles ou non, de l’IPCC mais finalement tous intéressés de près ou de loin par les bénéfices financiers de leurs mensonges répétés et leur accès aux sphères décisionnelles gouvernementales, afin d’infirmer ou au moins de mettre en doute la théorie de l’effet de serre et le rôle du CO2 dans cette théorie.

Le billet qui suit est un peu complexe mais l’exposé par ses auteurs est suffisamment didactique pour que sa compréhension soit finalement aisée bien qu’il fasse appel à quelques connaissances en physique, en particulier en spectroscopie infra-rouge, qui sont disponibles sur Wikipedia si les pages de cette encyclopédie n’ont pas été déjà caviardées par les sbires de l’IPCC, de Greenpeace, du WWF ou d’une myriade d’autres groupuscules ultra-politisés répartis dans le monde entier. On se serait attendu, si on est politiquement correct (à la sauce IPCC) à un titre du genre : « Pourquoi le CO2 réchauffe-t-il la Terre ? ». Tenez-vous bien, chers lecteurs, il s’agit exactement du contraire !!! Voici ce billet qu’il faudra lire en se reportant sans cesse à la première illustration issue de nombreuses études de la NASA reconnues dans le monde scientifique et qui décrit, avec une très bonne précision qui n’est fort heureusement pas contestée, les flux radiatifs entre le Soleil, la Terre et l’Espace environnant immédiatement la Terre. Bonne lecture !

Je voudrais ajouter que si l’un de mes lecteurs veut contredire les propos qui suivent, qu’il évite d’être insultant et veuille bien prendre la peine d’apporter des faits irréfutables dans son argumentation et de les exposer objectivement.

Pourquoi le CO2 refroidit la surface de la Terre ?

Dr. Theo Eichten, München; Dr. Gerhard Stehlik, Hanau; Professor Dr.-Ing. Vollrath Hopp, Dreieich; Dr.-Ing. Edmund Wagner, Wiesbaden.

La NASA a publié la représentation graphique la plus proche de la réalité des flux d’énergie provenant du Soleil vers la Terre et de la Terre vers l’Espace (Figure 1). Une représentation similaire est disponible dans les documents émanant de l’IPCC ou GIEC (voir le modèle de l’IPCC en fin de billet). Qualitativement, les valeurs des flux mesurés par la NASA et l’IPCC ne diffèrent pas vraiment sinon que le modèle de l’IPCC comporte la rétro-radiation due à « l’effet de serre ». De plus, ces différences entre les valeurs numériques issues de la NASA et de l’IPCC ne justifient en rien que le CO2 puisse refroidir la surface de la Terre. Dans le cas du modèle IPCC les valeurs des flux exprimés en W/m2 ont légèrement évolué selon les versions (TAR, AR4 et AR5) pour d’obscures raisons.

Capture d’écran 2014-11-06 à 17.44.29

Les flèches jaunes et orangées dans la figure 1 symbolisent tous les flux en direction de la Terre de la radiation solaire (en pourcentages) et leur divers composants. Trois flux (en jaune) sont réfléchis par l’atmosphère, les nuages et la surface du sol (6 % + 20 % + 4 % =30%). Trois autres (en orangé) sont absorbés par l’atmosphère ou la surface de la Terre (16 % + 3 % + 51 % = 70%). Deux flèches matérialisant aussi des flux(orangées) sont horizontales. L’une d’elles (16%) chauffe les hautes couches de l’atmosphère. L’autre (3%) réchauffe les nuages. Toute absorption de radiations solaires par l’atmosphère ou par la surface du sol dépend de la chaleur au sol. Tous les flux de chaleur sortants (en rouge) sont dirigés vers le haut. Ces flux ne peuvent pas aller vers le bas, c’est-à-dire de l’atmosphère vers le sol et n’importe qui peut le vérifier avec une simple sonde infra-rouge en orientant celle-ci vers le sol ou vers le ciel à condition naturellement que la sonde soit protégée du rayonnement solaire.

Le chauffage de la Terre par le Soleil est une évidence incontestée et il est la conséquence du spectre électromagnétique des radiations solaires (Figure 2).

Capture d’écran 2014-11-06 à 17.45.19

Il est également évident que la Terre ne peut pas se chauffer significativement elle-même : le chauffage de la surface terrestre provenant de l’intérieur de la planète a été estimé à 0,0392 W/m2. En conséquence, aucun composé chimique présent dans la croute terrestre ne peut lui-même constituer une source de chaleur. Cela s’applique aussi au CO2. Si le CO2 était une source de chaleur il faudrait que celle-ci vienne d’ailleurs.

Les radiations en provenance du Soleil constituent la seule source de chaleur sur Terre. A contrario, le refroidissement de la Terre requiert non seulement une dissipation radiative de chaleur mais également un transfert de chaleur mécanique par des phénomènes de convection et l’évaporation de l’eau. Par conséquent les facteurs du refroidissement sont plus compliqués. Trois flux d’énergie (en rouge, figure 1) vont de la surface de la Terre vers l’Espace. Le refroidissement de la Terre débute à la surface de cette dernière avec ces trois flux : le premier (7 %) représente le transfert de chaleur mécanique par convection thermique vers le haut. Le second et le plus important (23 %) est le refroidissement par évaporation de l’eau. Enfin, le troisième flux (21%) représente le refroidissement par le flux radiatif vers le haut. La majeure partie de ce flux radiatif est émise vers l’atmosphère (15 %) et le reste (6%) est directement émis vers l’Espace. La somme de ces trois facteurs de refroidissement (51%) à la surface de la Terre est égale au réchauffement de la surface terrestre par le Soleil.

Les radiations solaires sont toujours dirigées vers la surface de la Terre (70%) excepté pour les trois réflexions (30%). Le flux de chaleur est toujours dirigé vers le haut : 64 % vers l’atmosphère et les 6 % restants directement vers l’Espace. Un flux de chaleur provenant de l’atmosphère et dirigé vers le sol terrestre n’existe pas (voir note 1). Un effet de serre de + 33 °C (voir le rapport AR5 de l’IPCC et la note 3) tel que décrit dans le modèle figurant dans ce rapport nécessiterait un tel flux de radiations thermiques de l’atmosphère vers le sol.

Le flux radiatif de chaleur vers le haut (15%) depuis la surface terrestre vers l’atmosphère (figure 1, position 2, flèche rose) est l’argument central que le CO2 refroidit la surface de la Terre. Puisque ce flux s’échappe de la surface de la Terre, il ne peut en aucun cas constituer un facteur de réchauffement de celle-ci.

Il faut maintenant parler des propriétés physico-chimiques des principaux constituants de l’atmosphère, azote (N2) oxygène (O2) vapeur d’eau (H2O) et gaz carbonique (CO2). L’effet de refroidissement du CO2 sera ensuite abordé en regard des propriétés de ces gaz.

Il existe un certain nombre de lois décrivant les flux d’énergie. Un loi scientifique élémentaire est celle de la conservation de l’énergie totale. Cette loi s’applique à toutes les situations rencontrées sur la Terre mais elle ne s’applique pas au Soleil comme fournisseur d’énergie ni à l’Espace où disparaît l’énergie indéfiniment. Cette loi de conservation de l’énergie ne s’applique donc que pour les échanges énergétiques entre la surface terrestre et l’atmosphère. Une autre loi stipule qu’un corps se refroidit en cédant de l’énergie et un corps se réchauffe quand il reçoit et absorbe de l’énergie. L’énergie radiative ne peut se transformer en chaleur que s’il y a intervention de matière. D’autre part, le second principe de la thermodynamique précise que l’énergie sous forme de chaleur ne peut pas être entièrement convertie en travail, ce principe s’applique pleinement dans les phénomènes d’évaporation de l’eau et les mouvements de convection atmosphériques. Ce principe s’applique aussi, selon les lois de Planck, à l’énergie réémise sous forme de radiations par un corps après après que celui-ci ait absorbé une radiation. Cette énergie réémise est toujours plus faible, en d’autres termes la longueur d’onde de la radiation réémise est toujours plus longue que celle initialement absorbée. Toutes ces lois ne sont valides que pour les échanges horizontaux d’énergie et non pour les flux d’énergie dans l’espace entre le Soleil, la Terre et l’Espace comme illustrés dans la figure 1. Enfin le champ gravitationnel de la Terre introduit un gradient de pression sur toute la hauteur de la colonne d’air avec comme corollaire un gradient de température et un gradient de densité qui lui sont associés. Le second principe de la thermodynamique s’applique donc pleinement dans le système Terre-atmosphère en regard du gradient adiabatique auquel est soumis l’atmosphère.

Le chauffage résultant d’une radiation n’est possible que si celle-ci est absorbée au contraire d’une radiation passant à travers un matériau transparent à une radiation de longueur d’onde donnée comme une plaque de verre est transparente au rayonnement visible et aux rayons infra-rouges mais opaque aux rayons ultra-violets. C’est ainsi que les deux principaux constituants de l’atmosphère, l’oxygène et l’azote, laissent passer presque toutes les radiations solaires incidentes vers la surface de la Terre et laissent également passer toutes les radiations thermiques (infra-rouges) en provenance de la surface terrestre pour aller se perdre dans l’Espace. Ces deux composantes de l’atmosphère ne sont que très peu « chauffées » que ce soit par le rayonnement solaire ou par le rayonnement provenant de la Terre parce qu’elles ne peuvent que très peu les absorber. En d’autres termes azote et oxygène n’absorbent que de manière négligeable les radiations infra-rouges. Les émissions et les absorptions de n’importe quelle radiation se traduisent par des mouvements vibratoires et de rotation des liaisons chimiques (figure 3) qui deviennent plus rapides et donc les composés chimiques correspondants deviennent plus chauds par absorption ou plus froids par émission. Dans des conditions normales N2 et O2 ne peuvent ni absorber ni émettre de radiations infra-rouges significativement.

Capture d’écran 2014-11-06 à 17.46.29

Pourtant, comme cela est montré dans la figure 1, deux flux radiatifs solaires (16 % et 3%) sont absorbés par l’atmosphère et les nuages. La première question qui se pose est donc de savoir quelles molécules absorbent ces radiations solaires.

Le flux (16%) indiqué par la flèche rose (figure 1,position 1) correspond au rayonnement ultra-violet solaire (UV B et C essentiellement). Il est absorbé par les molécules d’oxygène (O2) et converti en chaleur par la formation puis la dissociation d’ozone (O3) :

Capture d’écran 2014-11-06 à 17.45.55

Les molécules d’O2 et d’O3 existent inchangées avant et après ce processus, il s’agit d’un équilibre chimique et ne peut donc pas être supérieur à la totalité de la conversion du rayonnement ultra-violet solaire en chaleur dans l’atmosphère. Ce processus n’obéit pas aux lois de Planck décrivant les propriétés des radiations. Cependant la chaleur dissipée par la dissociation de l’ozone stratosphérique (environ 5 ppm à 20 km d’altitude) irradie principalement vers l’Espace.

Les 3 % restant du flux radiatif solaire sont absorbés par les nuages et correspondent au rayonnement infra-rouge absorbé par les gouttelettes d’eau des nuages. Les bandes d’absorption des infra-rouges par l’eau sous forme de vapeur sont beaucoup plus étroites que celles de l’eau à l’état liquide. En conséquence le taux d’absorption des infra-rouges solaires par l’eau liquide (sous forme de gouttelettes dans les nuages) est beaucoup plus élevé que celui de la vapeur d’eau.

Revenons à l’argument central du rôle du CO2 comme agent de refroidissement. Il faut revenir plus en détail sur les flux de chaleur depuis la surface de la Terre vers l’atmosphère (flèche rose, position 2, figure 1). Ce flux existe parce que la vitesse d’émission radiative du CO2 vers l’espace est toujours plus rapide que sa vitesse d’absorption du rayonnement infra-rouge provenant de la surface de la Terre.

Initialement on a montré que la Terre et donc tous les constituants chimiques de la Terre ne peuvent se chauffer eux-mêmes. Par contre tous les composés chimiques peuvent se refroidir selon la loi de refroidissement de Newton par émission irréversible d’infra-rouges vers l’Espace. Cependant il y a quelques exceptions qui concernent des molécules chimiques qui ne peuvent pas se refroidir au sens de la loi de refroidissement de Newton. Ces molécules de gaz sont justement celles de l’oxygène (O2) et de l’azote (N2) sphériques et totalement non polaires. Elles constituent près de 97 % de la totalité de l’atmosphère. Par conséquent 97 % de l’atmosphère ne peut pas se refroidir tout seul. Ce point est très important pour discuter ensuite du rôle du CO2. Les molécules d’oxygène (O2) et d’azote (N2) ne possèdent pas de moment dipolaire électrique. Sans moment dipolaire, les vibrations thermiques de ces molécules ne peuvent que très difficilement absorber des radiations électromagnétiques que ce soit en provenance du Soleil ou de la Terre ni émettre à leur tour de radiations.

Pourtant, la nuit, l’atmosphère près du sol se refroidit. En réalité l’atmosphère se refroidit par contact avec le sol qui se refroidit en émettant puissamment des radiations (infra-rouges) vers l’atmosphère.

La loi de refroidissement de Newton est par contre valable pour la molécule triatomique asymétrique de l’eau (H2O) ainsi que pour la molécule également triatomique de CO2 qui possèdent toutes deux un dipôle électrique élevé et sont donc très activables par le rayonnement infra-rouge (voir figure 3). Schématiquement, dans l’essentiel de l’atmosphère (97%) qui n’est que très peu susceptible aux infra-rouges il se trouve environ et en moyenne 2 % de matériel terrestre normal susceptible d’absorber des rayons infra-rouges rendant ainsi l’atmosphère capable de se refroidir en rayonnant dans l’Espace. La valeur 2 % correspond à la somme de la teneur moyenne en vapeur d’eau (variable de 0 à 4%) et du CO2 (0,04 % ou 400 ppm). L’eau et le CO2 sont dits « matériels terrestres normaux » car ils se refroidissent en émettant des radiations vers l’Espace et sont donc refroidis ainsi par l’Espace. À une altitude de 2 mètres, là où les observations météorologiques sont effectuées et les températures mesurées, le processus de refroidissement de l’atmosphère est dominé par le refroidissement indirect par la surface du sol. À cette altitude les émissions radiatives de l’eau et du CO2 vers le haut sont négligeables en raison de la faible concentration (2%) de ces deux composés.

Cependant, la situation relative des équilibres énergétiques totaux de la colonne atmosphérique jusqu’à 75 km d’altitude est quelque peu différente. Ces 2 % de CO2 et d’eau sont suffisants pour refroidir l’ensemble de la colonne atmosphérique en ce sens qu’elle devient de plus en plus froide avec l’altitude. Tandis que le volume total de l’atmosphère jusqu’à une altitude de 75 km est refroidi par l’Espace, seulement quelques centimètres d’épaisseur du sol sont refroidis par émission vers l’Espace. Ceci explique la considérable capacité de l’atmosphère à refroidir par rayonnement (63%) en comparaison de celle de la totalité de la surface terrestre (6%) en incluant terres émergées et océans.

Si on se penche sur le flux radiatif solaire, l’entrée d’énergie dans l’atmosphère est due non seulement indirectement à partir de la surface du sol (51%) mais encore par absorption additionnelle directe (16 % +3 % = 19%). Dès lors l’atmosphère reçoit 70 % de l’énergie solaire incidente totale, ce qui est supérieur à ce que reçoit la surface de la planète (51%). Et pourtant l’atmosphère reste plus froid que la surface de la Terre ! En regard de la capacité totale de refroidissement de la Terre (70%), la capacité de refroidissement de la colonne atmosphérique (64%) est environ dix fois plus importante que celle des quelques centimètres de profondeur de la surface (6%, toujours figure 1, flèche rouge de droite).

Revenons donc à l’argument central de cet exposé. La flèche rose (position 2) dans la figure 1 représente le refroidissement par radiation thermique (15%) de la surface de la Terre vers l’atmosphère, mais ni l’azote (N2) ni l’oxygène (O2) ne sont capables d’absorber cette radiation. Seules les traces de CO2 et d’eau peuvent absorber efficacement ces radiations émises par la surface terrestre. Ce refroidissement radiatif contredit entièrement l’hypothétique « effet de serre » qui prévoit un réchauffement de + 33 °C en raison de ces supposés « gaz à effet de serre » (voir note 3).

Qui plus est, le flux le plus important de chaleur radiative depuis l’atmosphère vers l’Espace (64%) qui domine la balance énergétique globale de la Terre, est la chaleur irradiée par la totalité de l’atmosphère (flèche rose position 4, figure 1) matérialisé par la grosse flèche rouge qui renvoie dans l’Espace toute l’énergie introduite dans l’atmosphère. La figure 1 indique l’apparition soudaine d’un flux d’amplitude constante quelque part dans l’atmosphère. En réalité ce phénomène n’existe pas. La flèche matérialisant la vitesse de refroidissement de l’atmosphère devrait avoir une épaisseur de plus en plus importante avec l’altitude jusqu’à 75 kilomètres. La température de la colonne atmosphérique décroit avec l’altitude plus que le gradient usuel de – 0,6 à – 1°C par 100 mètres qui correspond à l’influence du champ gravitationnel terrestre sur la température et la densité, donc la pression, de l’atmosphère.

Comment le CO2 peut-il donc agir comme le principal facteur de refroidissement de la Terre alors qu’il n’existe qu’à l’état de traces (400 ppm) dans l’atmosphère ? La concentration en eau dans l’atmosphère décroit avec l’altitude pour atteindre à peine 12 ppm à 12 kilomètres d’altitude parce que les molécules d’H2O gazeux se condensent en glace (voir note 2). Entre 12 et 75 km d’altitude, l’émission radiative de chaleur n’est plus le fait que du CO2.

De plus, le CO2 est le plus important facteur de refroidissement de la Terre non seulement en raison des flux d’énergie maintenant prouvés entre le Soleil, la Terre et l’Espace, mais aussi par son activité particulièrement intense dans les longueurs d’onde infra-rouges. Le CO2 présente des bandes d’absorption très intenses à 10 et 15 microns (1000 et 660 cm -1, voir figure 4 et note 4) en raison du dipôle très élevé de la liaison C=O. La transformation de l’effet intense de refroidissement du CO2 en effet de réchauffement en raison d’assertions physiques frauduleuses – appelées « effet de serre » – constitue l’une des plus grandes erreurs contemporaines faites par des scientifiques et entérinée par des centaines de milliers de personne qui ne se sont pas posé plus de questions sur la validité de la théorie de l’effet de serre.

Capture d’écran 2014-11-06 à 17.47.09

Le facteur le plus important entrainant un accroissement du pouvoir radiatif de la totalité de la colonne atmosphérique avec l’altitude est la très forte susceptibilité aux infra-rouges des molécules d’eau et de CO2 qui est modulée par l’élargissement de leurs bandes d’absorption dans l’infra-rouge avec la pression. Aux hautes altitudes et faibles pressions les bandes d’absorption sont très étroites et très intenses alors qu’aux fortes pressions et faibles altitudes ces bandes sont élargies et moins intenses. Mais la radiation thermique des bords des bandes d’absorption atteint alors l’Espace directement sans réabsorption par d’autres molécules aux hautes altitudes et faibles pressions. La pression atmosphérique affecte considérablement les spectres d’absorption du CO2. Cette observation pose un problème majeur dans le calcul du transfert des radiations infra-rouges à travers l’atmosphère avec les variations de pression, de température et d’abondance des gaz. La figure 4 est un exemple de spectres d’absorption dans l’infra-rouge d’une colonne de 1 mètre de CO2 aux pressions de 1000 et 100 millibars (pression observée à environ 15000 mètres d’altitude).

Il semble que ce dernier aspect des propriétés spectrales du CO2 ait été tout simplement ignoré dans la formulation de la théorie de l’effet de serre car elles sont à l’évidence incompatibles avec cette théorie. L’apparente ignorance des propriétés spectrales du CO2 qui font que ce gaz est un puissant agent de refroidissement de la planète afin que celle-ci présente les propriétés d’un corps noir à la température de -18 °C à l’équilibre radiatif Soleil-Terre-Espace a conduit aux fausses affirmations du forcing radiatif dû au CO2 qui ne peut en aucun cas exister pour les raisons évoquées plus haut. En ce qui concerne enfin le gradient adiabatique de l’atmosphère sous l’influence du champ gravitationnel terrestre l’illustration ci-dessous décrit la relation entre densité et température de la colonne atmosphérique (source Wikipedia). Mais il faut bien noter qu’au delà de 50 km d’altitude les lois décrivant le comportement des gaz ne s’appliquent plus car les rayonnements solaire et cosmique concourent pour ioniser les molécules et cette ionisation conduit à des températures théoriques élevées malgré la rareté des gaz. À 90 km d’altitude la densité y est un million de fois plus faible qu’au niveau de la mer.

Source : « Atmosphäre, Wasser, Sonne, Kohlenstoffdioxid, Wetter, Klima – einige Grundbegriffe » (en français : « Atmosphère, eau, lumière du soleil, dioxyde de carbone, temps – quelques notions de base »).

Professor Dr.-Ing. Vollrath Hopp, Président de l’Association des ingénieurs allemands, Association de Francfort -Darmstadt, Section de l’environnement, éditeur. Dr Gerhard Stehlik, physico-chimiste, Dr Wolfgang Thüne, météorologue, Dr.-Ing Edmund Wagner, ingénieur, Co-auteurs : ISBN 978-3-18-325515-3, 2010, Düsseldorf, Allemagne, © January 2014.

À la page 123 dans le chapitre « effet de serre » on lit la phrase: 

« Pour un effet de serre naturel, il n’y a aucune preuve. »

Note 1 : « Un flux de chaleur provenant de l’atmosphère et dirigé vers le sol terrestre n’existe pas » car ce serait une violation du second principe de la thermodynamique : il ne peut y avoir de transfert de chaleur d’un corps froid vers un corps plus chaud.

Note 2 : les trainées blanches laissées par un avion volant dans le ciel à 11000 mètres d’altitude sont constituées de cristaux de glace, la température à cette altitude peut en effet atteindre – 60 °C.

Note 3 : cette valeur de + 33 °C provient du fait que la Terre se comporte comme un corps noir à la température de – 18 °C. Or la température « moyenne » de la Terre au niveau de la mer est de + 15 °C d’où l’arithmétique simple pour ne pas dire simpliste : + 33 – 18 = + 15. La température « moyenne » de la Terre est une grandeur difficilement appréciable et donc sujette à caution. En outre les 33 °C « manquants » constituent une négation flagrante de l’existence du gradient adiabatique dû au champ gravitationnel terrestre. Ci-dessous, « effet de serre » vu par l’IPCC :

Capture d’écran 2014-11-10 à 11.07.40

Note 4 : en spectroscopie infra-rouge les spectres sont rapportés aux nombres d’onde ou inverses des longueurs d’onde pour des raisons de commodité graphique. Cependant le nombre d’onde d’une radiation qui est exprimé en inverse d’une longueur est lié directement à l’énergie de la radiation par la relation de Planck où h est la constante de Planck et c la vitesse de la lumière :

Capture d’écran 2014-11-06 à 16.07.58

ou à la fréquence de la radiation en divisant celle-ci par la vitesse de la lumière :

Capture d’écran 2014-11-06 à 16.08.29

Chronique d’un voyage Canaries-Japon

 

01h30 du matin. Rien ne va plus dans les airs, au milieu de la nuit froide ou plutôt presque glaciale de Madrid, en souffrance à l’Aéroport Adolfo Suarez, pas de connexion possible avec internet. Il semblerait, et ce n’est qu’une hypothèse, que la société Aena, dont 49,5 % du capital a été cédé à un investisseur international, n’est plus très regardante avec le Wi-Fi qui fonctionnait parfaitement bien il y a encore six mois. Economies obligent probablement. Toujours est-il que c’est carrément énervant surtout quand on doit se coller 6 heures de transit pour embarquer dans l’avion suivant en direction d’Amsterdam avec comme destination finale Narita. Je m’étais muni d’un petit bidule acheté chez Orange pour me connecter où je veux et quand je veux pour la somme astronomique de 3 euros par tranche de 24 heures. Même souci, pas de signal, et pourtant mon bidule, qui est en réalité un genre de téléphone portable utilisable seulement en Espagne, ne fonctionne pas non plus. Peut-être qu’Orange en est aussi aux programmes d’économies en tous genres … Toujours est-il que c’est très énervant quand on est devenu totalement soumis à une connexion pour se donner l’illusion que le monde entier peut être appréhendé en quelques clics. Bref, je suis désappointé et c’est la seule raison qui m’a conduit à écrire ces quelques lignes en maugréant en silence et à la limite de maltraiter le clavier de mon desk-top.

Cette situation inattendue révèle au plus profond de moi l’envie d’aller vivre dans un village perdu dans la forêt tropicale de l’île de Malikolo au Vanuatu et de laisser derrière moi la civilisation avec ses bons côtés. C’est d’ailleurs un peu rapide de parler ainsi des bons côtés de la civilisation de haute technicité puisque cette déconnexion fortuite laisse un goût amer et insoutenable dans l’univers déshumanisé d’un aéroport aux recoins inextricables. Le terminal 1-2 de l’aéroport de Madrid est constitué d’une enfilade de bâtiments disparates reliés les uns aux autres avec le temps et on doit parfois marcher trente minutes à une vitesse soutenue pour rejoindre la bonne porte d’embarquement. C’est presque pire que Roissy mais il y a au moins des bars ouverts la nuit et des toilettes parfaitement propres. On est presque réconcilié ainsi avec la civilisation.

Je n’en dira pas plus pour l’instant.

4h30. Les compteurs ouvrent, des voyageurs arrivent. Je vais faire la queue au comptoir de KLM. Pour rien, 20 minutes de piétinement inutiles car mon vol est en code-share avec Air Europa. Je refais donc la queue à l’autre compteur et une charmante employée ferme les yeux sur le surpoids de ma valise comme l’avait fait d’ailleurs sa collègue à Tenerife. Pour faire passer le problème, deux kilos et demi supplémentaires auraient pu me coûter au bas mot 62 euros de taxe, j’ai tenté l’argument humoristique, ne comprenant pas comment ma valise s’était alourdie de 2,5 kilos en 3 heures de vol ou bien que les balances des Canaries sont réglées pour plaire aux touristes. Au cours de cette négociation qui n’en fut pas une, j’eus le loisir d’admirer sa gorge qu’elle offrait sans retenue à ma vue plongeante et passablement inquisitrice. Impossible de m’attribuer une place à tribord dans le Boeing 747 pour le vol Amsterdam-Narita. J’aurais aimé voir le mont Fuji à l’approche de Tokyo, c’est en effet un spectacle merveilleux.

5h30. C’est l’affluence. J’ai fait plusieurs aller-retour entre une cafétéria bondée à boire des bières et l’extérieur où sévit une sorte de blizzard sans flocons insupportable pour fumer une cigarette. Orion et Sirius étaient au rendez-vous entre des petits nuages blanchis par les lueurs de la ville. Plus qu’une heure avant d’aller passer la sécurité avant d’embarquer.

Quand on voyage relativement souvent, ces transits dans les aéroports deviennent non plus des pensums mais des divertissements, du moins on fait en sorte qu’il en soit ainsi car c’est le meilleur choix. Depuis que je pratique cet aéroport, je connais exactement toutes les astuces pour en définitive presque apprécier ces transits souvent nocturnes. Il s’agit d’une sorte de résignation contrôlée.

5h45. Une horrible mégère arborant un surpoids repoussant s’empiffre en face de moi d’une espèce de gâteau de nature indéfinissable après avoir ajouté deux sachets de saccharine dans son café. Répugnant ! Pourtant elle a un visage presque attirant et encore une fois je n’arrive pas à comprendre comment une femme peut arriver à se dégrader ainsi en laissant aller ses bas instincts alimentaires. Ce spectacle me conduit naturellement à une réflexion sur ce comportement compulsif qu’adoptent certaines personnes sans en avoir conscience. Dans l’avion entre Tenerife et Madrid un gros joufflu obèse dont l’abondant tissu adipeux débordait presque sur mon siège agitait ses jambes en une sorte de mouvement vibratoire discontinu qui se transmettait désagréablement à mon siège. Je me suis permis de lui envoyer un signal consistant à pointer sur sa cuisse gauche mon crayon exclusivement réservé aux mots croisés, mon passe-temps favori quand je n’ai rien d’autre à faire, en accompagnant mon geste d’un « por favor » murmuré sur un ton exprimant parfaitement ce que je pensais de cette attitude qui reste inexplicable pour moi.

13h25. Schiphol. L’avion supposé m’emporter à Narita est enfin arrivé. Le précédent locataire de l’emplacement, un Boeing 747 avait quitté ce lieu à destination de Chicago avec deux bonnes heures de retard. Il y aura certainement aussi du retard car personne n’a l’air de s’affoler autour de l’aéronef. Dans l’aéroport tout est très cher. La moindre bière y est huit fois plus coûteuse qu’à Tenerife ! Mais bon, il faut bien tuer le temps. Les Japonais et d’autres voyageurs sont déjà en formation pour se payer une bonne heure d’attente dans l’espèce d’aquarium qui sert de salle d’attente. J’ai décidé de prendre mon temps … dans un 747, même un « Combi », il y a beaucoup de monde. Je n’ai toujours pas compris pourquoi, dans les aéroports les passagers aimaient faire la queue. Par exemple quand on est encore dans l’avion, quand celui-ci s’immobilise et que le signal autorisant à se libérer de sa ceinture de sécurité, tout le monde se lève et va attendre une bonne dizaine de minutes, la tête courbée sous les coffres à bagages avant de pouvoir progresser vers la sortie. Une sorte de comportement grégaire inexplicable sinon qu’on se comporte souvent comme des animaux très basiques tout juste bons à nous fournir en laine et accessoirement en gigots.

13h35. Le passage par la sécurité a débuté. Toujours aucune activité autour de l’avion en dehors de l’opération probablement soumise à des règles de sécurité stricte de remplissage des réservoirs de kérosène. J’ai tenté de me connecter à l’internet de l’aéroport, nouvel échec.

Treize heures trente plus tard. Après avoir admiré au dessus des nuages bas clairsemés le Mont Fuji avec son cône blanc au sommet, atterrissage à Narita avec 55 minutes de retard …

L’origine des religions ( 2 ) Les évènements climatiques ?

Capture d’écran 2014-11-12 à 18.05.57

L’apparition des croyances en une entité supérieure à l’homme, un facteur contribuant à l’organisation sociétale des groupes humains, reste obscure. Le mystère des grottes profondes a certainement contribué à la conceptualisation d’un être suprême à qui on doit le respect ou au moins une dévotion et une reconnaissance. À la surface de la Terre, pour rester plus matérialiste, ce fut d’abord et avant tout autre paramètre la disponibilité en nourriture qui induisit l’apparition de rites célébrant le Soleil, puis la pluie avec la manifestation terrifiante des orages. Dès la sédentarisation des chasseurs-cueilleurs avec l’apparition de l’élevage et de l’agriculture, ces deux facteurs essentiels à la vie, Soleil et pluie, permit la structuration de la notion d’êtres supérieurs et de divinités appropriées à l’organisation des groupes humains en les moralisant. Il y eut en effet très tôt dans l’évolution des sociétés humaines des dieux bons et des dieux mauvais reflétant le bien et le mal existant dans ces groupes humains.

Pour tenter d’établir une corrélation entre les paramètres climatiques favorables à la culture et l’élevage et la nature des êtres supérieurs vénérés ou invoqués dans des rites « religieux » 389 groupes humains ont été étudiés. Bien que l’on ait tendance à ne considérer que quatre ou cinq grandes religions dans le monde, il existe une multitude de pratiques relevant parfois de la magie mais toutes faisant référence à l’existence d’un être transcendantal le plus souvent lié à l’agriculture et/ou l’élevage et donc aux conditions climatiques. Ces « dieux » remplissent une fonction moralisatrice car ils sont considérés par les « anciens » ou les chefs ou encore les sorciers comme des exemples que les sociétés doivent suivre.

L’étude réalisée par une collaboration internationale entre USA, Canada, Australie et Nouvelle-Zélande et parue dans les PNAS en open access ( http://www.pnas.org/cgi/doi/10.1073/pnas.1408701111 ) et schématisée par l’illustration ci-dessus indique clairement une répartition régionale sans interpénétration entre dieux moralisateurs (points bleus) et déités ou esprits sans influence moralisatrice (points rouges) sur les sociétés humaines étudiées. La liste de ces sociétés est intéressante à parcourir et disponible en suivant le lien ici : http://www.pnas.org/content/suppl/2014/11/05/1408701111.DCSupplemental/pnas.1408701111.sd01.csv . L’illustration indique en grisé foncé les zones de pluviosité élevée et donc de production végétale satisfaisante pour soutenir la vie. On a en effet coutume de dire dans les pays tropicaux et équatoriaux qu’il suffit de se baisser pour se nourrir. L’Amérique du Nord constitue un exemple particulier d’animisme lié à l’abondance de nourriture dans les grandes plaines et de la même abondance sur la côte ouest en raison de la richesse de la mer et des forêts. Les zones intertropicales sont également largement dominées par des pratiques religieuses ne faisant pas intervenir d’être suprême moralisateur car la pluviométrie et l’abondance de nourriture atténuent les éventuels désordres sociétaux.

La partie nord de l’Afrique, depuis le Sahel, et l’Europe sont dominées par des pratiques religieuses impliquant des divinités supérieures moralisatrices. Elles correspondent à des sociétés pratiquant pour la plupart l’élevage en parallèle à une agriculture dont une grande partie est destinée à l’élevage. La propriété individuelle étant considérée comme une valeur sociétale la base de l’organisation de ces groupes humains reposait sur des valeurs morales devant être respectées à l’image du (des) dieu(x) moralisateur(s). Cette étude a montré une parfaite cohérence entre la pratique de l’élevage et de l’agriculture organisée avec une notion de propriété individuelle et cette vénération d’un être suprême ayant pu prendre toutes les identités possibles.

Cette étude montre donc que la notion de divin était originellement conceptuelle et a contribué, au cours de l’évolution des sociétés humaines, à établir des règles de vie en communauté à l’inverse de la magie et du chamanisme qui n’ont que très peu contribué à l’organisation de ces sociétés.

Source : PNAS