Revue de détail du « canal de naissance »

Capture d’écran 2018-10-27 à 12.01.09.png

Le canal de naissance, aussi appelé canal pelvi-génital, constitué par l’espace ménagé entre l’os pubien, le sacrum et les côtés du bassin est le résultat d’un compromis au cours de l’évolution entre deux facteurs de pression sélective antagonistes : une ouverture osseuse suffisante pour assurer le passage du crâne surdimensionné du foetus humain et la limite en quelque sorte architecturale imposée à l’ensemble du bassin par la marche bipédique. Les spécialistes parlent de « dilemne obstétrique » car à l’évidence il faut que le bassin soit suffisamment solide pour supporter le poids du corps sur les deux côtés du bassin sans risque de se briser. Pour que la tête de l’enfant puisse sortir il faut souvent lui faciliter un mouvement de rotation pour optimiser l’adaptation du crâne qui n’est pas parfaitement sphérique avec le canal de naissance qui n’est pas non plus parfaitement circulaire.

Afin de préciser les facteurs évolutifs intervenant dans la forme et la dimension du canal de naissance les ossements de 348 femmes dans 24 populations différentes ont été étudiées sur une période s’étalant du deuxième millénaire avant l’ère présente jusqu’à aujourd’hui. L’étude a révélé une forte diversité géographique dans les dimensions du canal de naissance. Il ressort tout de même quelques différences significatives entre les Lapones et les Inuits qui présentent un canal de naissance aux dimensions confortables et les femmes de l’Extrême-Orient (Japonaises ou Thaïlandaises) dont les dimensions de ce canal sont très légèrement plus réduites. Mais il ne s’agit pas d’une incidence des conditions climatiques, ce qui avait été suggéré par certains auteurs. La pression de sélection et la dispersion depuis l’Afrique de l’Homo sapiens dans le monde entier a quelque peu brouillé les pistes mais cette étude ne présente toutefois qu’un intérêt mineur pour les obstétriciens qui connaissent leur métier.

Source : 10.1098/rspb.2018.1807

Billet d’humeur socio-religieuse

Capture d’écran 2018-10-29 à 21.01.11.png

Je sais très bien qu’il ne faut pas parler de religion mais il y a des limites que les institutions européennes ont franchi et c’est tout à fait regrettable. Voici les faits (lien en fin de billet). Une Autrichienne eut le courage en 2009 de déclarer lors de plusieurs conférences publiques que le prophète Mahomet consomma les félicités d’un mariage arrangé avec une fillette prénommée Aisha alors qu’il avait plus de 50 ans et cette dernière à peine 11 ans. Cette Autrichienne ne tourna pas sa langue sept fois dans sa bouche et déclara que le prophète Mahomet était un pédophile (sic). Ça n’a pas vraiment plu aux autorités autrichiennes qui l’ont condamnée en 2011 à 480 euros d’amende pour avoir tenté de semer le désordre dans le paysage religieux du pays. La Cour Européenne des Droits de l’Homme s’est emparée de ce sujet, disons brûlant, après la décision en appel qui confirma l’arrêt en première instance mais sous un autre angle, l’Autrichienne en question ayant sollicité la CEDH.

Cette Cour dont la juridiction concerne tous les citoyens européens a arrêté sa décision en statuant sur la validité de l’arrêt en appel qui avait pour but « légitime » de préserver la paix religieuse en l’Autriche.

Autant dire que, comme je l’écrivais au début de ce billet il est préférable de ne pas parler en public de religion et donc qu’il est tout aussi préférable de fermer sa gueule. Mais en sous-entendu c’est dans les faits la liberté d’expression que la CEDH a condamné. Franchement qu’est-ce qu’on en a à faire des histoires d’amour du prophète Mahomet. Si cette fillette avec qui il « consomma » alors qu’elle avait atteint l’âge de 11 ans était nubile, est-il tout aussi répréhensible de traiter de pédophile l’homme qui a engrossé une Péruvienne de 11 ans qui a accouché d’un enfant il y a quelques mois alors qu’elle n’avait pas encore 12 ans. Personne ne s’en est ému, c’était tout simplement un fait divers comme un autre, un peut glauque pour un Européen, mais probablement normal voire banal au Pérou ou au Bangladesh, que sais-je.

Mais puisque la CEDH a mis le doigt sur la liberté d’expression je voudrais ici relater les 7 années de mon adolescence que j’ai enduré en pension chez les curés. Combien de fois je me suis fait caresser les fesses de jeune adolescent, je ne m’en souviens plus. Combien de fois ces curés m’attiraient pour m’asseoir sur leurs genoux, c’est une façon de parler, pour que je me livre à quelques confidences alors que je sentais leur pénis se dresser sous leur soutane … Pendant des années j’ai essayé d’oublier ces heures sombres de mon adolescence. Aujourd’hui les scandales de pédophilie à répétition qui ternissent l’image du catholicisme ne semblent pas émouvoir le pape et ne semblent pas non plus émouvoir la CEDH. Le célibat des prêtres est irrévocable ! C’est consternant … Le « concile » qui décreta le célibat des prêtres eut lieu au IVe siècle (synode l’Elvire, voir le lien), autant dire dans une période sombre de l’histoire de l’Europe et l’avènement de la religion musulmane eut lieu quelques centaines d’années plus tard, c’était encore ce que les climatologues ont appelé avec un brin d’humour le « dark age », ça veut tout dire. Tous les évangiles apocryphes précisent que Jésus se maria avec Marie-Madeleine, une ancienne pute avec qui il eut deux enfants. Il fut enterré à ses côtés. Le reste c’est de la légende. Dans son oeuvre, je crois me souvenir « Les 95 principes », Luther a bien précisé que les pasteurs (équivalent des prêtres dans la religion catholique) pouvaient se marier et avoir des enfants. Il s’agissait de l’un des principaux points sur lequels la religion dite protestante s’opposait aux pratiques obsolètes du catholicisme – obsolètes bien avant l’époque de Luther – c’est dire … Si le pape veut sauver l’Eglise catholique il n’a pas d’autre choix que de rétablir le mariage pour les curés (ils pourront se reproduire) et alors les scandales de pédophilie ne seront plus qu’un mauvais souvenir.

Billet suscité par un article paru sur le site ZeroHedge qui a le mérite d’informer même les « bien-pensants ».

Liens : https://en.wikipedia.org/wiki/Synod_of_Elvira

https://www.zerohedge.com/news/2018-10-28/eu-court-upholds-prosecution-woman-comparing-muhammads-marriage-six-year-old-girl

La guerre civile syrienne et le climat : un lien ? Pas de preuves !

Le précédent président de la République française, spécialiste du climat comme chacun s’en souvient, avait déclaré droit dans ses bottes que les tremblements de terre étaient provoqués par le réchauffement du climat. Peut-être que les plus farouches supporters de ce clown l’avaient cru … Dans le même genre d’ineptie certains politologues avisés et possédant également de solides connaissances en climatologie ont fait un rapprochement entre ce réchauffement du climat et la guerre civile syrienne. Car il faut, pour proférer de telles affirmations, s’appuyer sur des faits incontestables. Or ce n’est pas le cas et de nouveau et encore les activistes écolo-climatiques n’ont pas d’autres préoccupations que d’incriminer le réchauffement du climat comme étant la cause primaire de toutes sortes de dérèglements allant de l’apparition du virus Zika aux fluctuations de la bourse en passant par le déraillement des trains, l’afflux de réfugiés en Europe ou encore la disparition des chauve-souris.

Tiens ! À propos de chauve-souris une éminence mondiale de l’étude des écosystèmes a affirmé que les installations de moulins à vent un peu partout dans la campagne profonde tant d’Allemagne que de France conduira inévitablement à la disparition définitive de certaines espèces de chauve-souris et décimera des populations entières d’oiseaux migrateurs mais, il faut tout de même se réjouir de l’installation de cette source d’énergie renouvelable, conviviale, festive et citoyenne, les rapaces nocturnes semblent apprendre que les moulins à vent sont dangereux et ils ont tendance à les éviter. Pour conclure ce petit aparté qui n’a rien à voir avec la guerre civile syrienne on pourrait aussi incriminer le réchauffement climatique dans cette mort programmée de certaines chauve-souris puisqu’elles sont installées pour parait-il réduire les émissions de gaz à effet de serre. Je me marre …

Mais revenons à la Syrie, le Docteur Tobias Ide du Brauschweiger Georg Eckert Institute a compilé les arguments avancés pour expliquer « climatiquement » la guerre civile syrienne et il est arrivé à la conclusion que le changement du climat comme cause primaire de cette guerre n’est pas confirmé. Si on analyse les faits le déclenchement de la guerre civile syrienne, indépendamment de toute cause idéologique, religieuse ou extérieure à la Syrie, aurait été provoqué par la grande sécheresse des années 2006-2009, c’est plausible mais non prouvé. Cette sécheresse aurait eu pour conséquence une chute massive de la production agricole, c’est un argument présenté par de nombreuses études mais contesté par d’autres. Cette raréfaction des denrées alimentaires de base aurait provoqué la migration de la population rurale vers les zones urbaines, c’est reconnu par de nombreuses études mais également contesté par d’autres. Cet afflux de population en zones urbaines aurait catalysé des manifestations et des protestations conduisant à des troubles récurrents ayant provoqué la guerre civile, c’est possible mais les arguments dans ce sens sont très minces.

Il ressort de cette étude qu’il y a peu de recoupages entre les diverses méthodes d’analyse des évènements, et qu’au contraire et systématiquement les arguments en faveur d’un effet du climat sont délibérément amplifiés sans aucune base scientifique solide pour les étayer. Si la sécheresse des années 2006-2009 a été sévère Pierre Gosselin a considéré comme utile de rappeler que les périodes de sécheresse au Moyen-Orient ne sont pas un fait nouveau (blog notrikszone.com) et en Syrie comme dans d’autres régions du pourtour méditerranéen les épisodes de sécheresse ont toujours sévi selon des cycles difficilement prévisibles s’étendant sur des dizaines d’années.

Capture d’écran 2018-10-24 à 08.39.27.png

L’illustration ci-dessus requiert quelques explications. Les reconstructions de l’abondance des précipitations ont fait appel à divers proxys présents dans les carottages des sédiments marins et lacustres. Ces sédiments sont le résultat du lessivage des sols par les pluies de divers métaux de poids atomiques différents dont les rapports d’abondance respectives peuvent être analysés par spectrographie de masse. Les proxys utilisés pour cette reconstruction sont les rapports magnésium/aluminium, rubidium/aluminium et le δ18O reliant directement la température à la pluviométrie. Les sites étudiés sont répartis entre le sud-est de l’Espagne, plusieurs lacs en Espagne et en Europe centrale, un lac en Afrique et enfin un carottage en mer près de l’île de Chypre. Comme on peut le constater il est difficile de trouver une périodicité évidente dans ces résultats. Mais la sécheresse qui a sévi en Syrie à la fin des années 2000 n’est pas un phénomène météorologique relié à l’optimum climatique moderne puisqu’il y a eu à l’évidence d’autres situations similaires par le passé.

Conclusion : ce que les activistes climatiques affirment en procédant à des raccourcis pour le moins contestables est tout simplement de la propagande de mauvais aloi.

Source : notrickszone.com et doi : 10.5194/cp-6-807-2010

Energie nucléaire : état des lieux succinct et perspectives.

Capture d’écran 2018-10-26 à 09.07.04.png

Selon le Directeur Général de l’agence internationale de l’énergie nucléaire (IAEA) Yukiya Amano (illustration) : « il sera difficile pour le monde entier d’atteindre les deux objectifs d’une production d’énergie suffisante et fiable en limitant dans le même temps l’augmentation globale des températures en dessous de 2 degrés C dans les décennies à venir sans augmenter la production d’énergie nucléaire. Les projections de l’IAEA indiquent que le potentiel de développement de l’énergie nucléaire reste élevé au moins jusqu’en 2050 mais cette expansion sera en déclin dans les prochaines années ».

De nombreuses études prometteuses sont en cours pour concrétiser de nouvelles générations de réacteurs nucléaires de taille intermédiaire ou modulaires et certains pays se focalisent sur la filière thorium. Cependant l’utilisation de l’uranium restera prépondérant dans les prochaines années. L’IAEA soutient le cycle du combustible et son optimisation depuis l’exploitation minière et la réhabilitation des mines jusqu’à l’enrichissement et le retraitement. L’abondance des gisements d’uranium est largement suffisante pour satisfaire la demande jusqu’en 2050 et au delà. En 2016 la production mondiale représentait 62221 tonnes d’uranium métal. Cette production est attendue pour décliner jusqu’à 55000 tonnes en 2035 et si la demande croissait d’ici cette date les réserves disponibles seraient suffisantes pour la satisfaire. Divers pays (dont la France) ont décidé de réduire la part du nucléaire dans leur source d’énergie électrique.

Pourtant l’IAEA maintient sa projection d’une part croissance de l’énergie nucléaire qui devrait atteindre 25 % du total de l’énergie électrique produite dans le monde en 2050. C’est-à-dire qu’il faudra que 1000 GWe de nouvelles capacités de production soient mises en place de maintenant à cette date. En d’autres termes cela signifie qu’il faudra qu’au moins 30 nouveaux réacteurs soient connectés au réseau chaque année dès les années 2030-2040 comme cela fut le cas au cours des années 1980. À l’heure actuelle la capacité de construction de nouvelles unités est d’environ 30 chaque année et les principaux défis rencontrés sont le support politique de ce programme, la confiance du public qui s’est dégradée depuis l’accident de Fukushima-Daiichi et aussi celle des investisseurs. Il y a aujourd’hui 451 réacteurs opérationnels dans le monde dans 30 pays et 58 réacteurs sont en construction. Trente autres pays envisagent d’introduire une part de nucléaire dans leur « paysage » énergétique.

Qu’en est-il de l’évolution des prix du « yellow cake », l’oxyde d’uranium U3O8, cotés sur le marché international ? Depuis l’accident de Fukushima-Daiichi et en dépit du programme nucléaire chinois vigoureux la demande en yellow cake a considérablement chuté passant d’environ 50 dollars la livre avant l’accident japonais à 20 dollars au début de l’année 2018 pour remonter aux alentours de 28 dollars le 25 octobre 2018. La plupart des producteurs d’uranium réduisent leur production pour maintenir un prix de marché acceptable. Cette situation déprimée a provoqué la fermeture de nombreuses mines confortant la position dominante du Kazakhstan – plus de 40 % du marché – s’en est retrouvée renforcée car le Canada dont l’exploitant Cameco de la plus grande mine au monde, MacArthur River, a décidé de stopper l’exploitation pour une durée indéterminée en attendant que les prix se stabilisent à un niveau assurant la rentabilité de la mine et des installations de production de yellow cake. De son côté le Kazakhstan a réduit sa production de 20 % pour faire pression sur les prix. La demande devrait s’accélérer dans la mesure où de nombreux réacteurs chinois devraient être bientôt connectés ainsi que la remise en fonctionnement progressive des unités de production électronucléaires japonaise. Enfin les contrats à terme entre la Chine, les USA et le Japon devraient bientôt expirer et c’est l’une des autres raisons qui pourrait pousser les prix vers le haut. Quel sera le prix de l’uranium dans les années à venir ? C’est une question qui n’a pas vraiment d’importance dans la mesure où cette source d’énergie est la moins polluante et le développement des réacteurs à neutrons rapides, l’une des filières permettant d’éliminer les transuraniens de haute activité, autorisera une rationalisation de l’ensemble de cette industrie. Comme le disait très justement Monsieur Amano ou bien on grillera tous comme des toasts (cf. Christine Lagarde, une autre experte en climatologie) ou alors le choix de l’énergie nucléaire s’imposera de lui-même.

J’ajouterai une remarque importante de mon cru. Les écologistes s’alarment à juste titre de la pollution créée par les navires gros porteurs, que ce soient les minéraliers, les super-tankers, les navires LNG ou les porte-containers qui sillonnent les océans. On peut rêver d’un monde apaisé dans lequel la paranoïa nucléaire des militaires aura disparu alors tous ces navires seront propulsés à l’aide de réacteurs nucléaires à plutonium, un métal fissile beaucoup moins onéreux que l’uranium-235. De tels réacteurs « brûlent » du matériel fissile de « qualité militaire » autrement dit avec lequel on peut fabriquer des bombes. Mais le souci est que ces mêmes écologistes sont aussi opposés à l’énergie nucléaire. Je n’assisterai pas de mon vivant à une telle conversion possible dans un monde sans aucune bombe nucléaire, l’un des souhaits de l’Assemblée générale des Nations-Unies.

Sources : IAEA, ZeroHedge. Note : pas de billet ce dimanche 28 octobre mais pas à cause du changement d’heure qui n’existe pas au Japon

Le fluor dans l’eau : une disposition législative dangereuse pour la santé mentale

Capture d’écran 2018-10-25 à 22.56.44.png

C’est une nouvelle assez alarmante qui semble être passée inaperçue : enrichir l’eau du robinet considérée comme potable et utilisée pour la cuisine avec du fluorure de sodium est plutôt néfaste pour la santé cérébrale. Qui dit santé cérébrale pense tout de suite aux maladies neurodégénératives comme la maladie d’Alzheimer. Et c’est bien le souci qu’avait fait ressortir une étude pourtant parue en 2001 (PMID : 11275672). De quoi s’agit-il au juste ? Les autorités politiques, qui comme chacun sait sont toujours à la pointe pour prendre des décisions bénéfiques concernant la santé des citoyens, se sont lourdement trompées en instaurant la fluoration systématique de l’eau du robinet. Certes le motif était louable puisqu’il s’agissait d’améliorer la santé dentaire et peut-être celle des os. Ces même autorités ont tout simplement oublié que la glande endocrine pinéale, aussi appelée épiphyse, est très sujette à des phénomènes de calcification qui peuvent apparaître dès l’âge de 15 ans et qui s’accentuent avec l’âge. La glande pinéale que René Descartes avait désigné comme le siège de l’âme est en réalité une glande endocrine qui a pour fonction de synthétiser la mélatonine à partir de la sérotonine et qui est un régulateur du cycle circadien indispensable pour, si l’on peut dire et pour faire bref, bien dormir.

Le souci avec cette fluoration de l’eau est que des cristaux de fluorure de calcium s’accumulent dans cette glande et que la concentration en fluor dans la glande pinéale est supérieure à celle observée dans les os. Normalement ces concentrations sont sensiblement identique et cette indication signifie qu’il serait formellement déconseillé d’être en contact avec une quelconque forme de fluor. Alors pourquoi continuer à fluorer l’eau puisque d’une part aucune fonction physiologique de cet ion n’a jamais pu être prouvée et que d’autre part ce fluor a tendance à s’accumuler dans l’épiphyse créant des dommages irréversibles. D’abord pourquoi l’épiphyse est-elle si sensible à ces phénomènes de calcification, tout simplement parce cette minuscule partie du cerveau est une exception : elle n’est pas protégée par la barrière cérébrale. Au cours de l’évolution cette glande dérive histologiquement d’un « troisième oeil » dont le vestige existe encore chez les reptiles. Et effectivement le type de neurones retrouvé dans cette glande ressemble à celles retrouvées dans la rétine.

Les dysfonctionnements de la glande pinéale sont associés à la maladie d’Alzheimer, aux troubles bipolaires, à la dérégulation des rythmes circadiens, à l’insomnie, à la schizophrénie ou encore aux troubles du sommeil. Ça fait beaucoup ! Mais bien pire encore les personnes dépressives utilisant du Prozac (fluoxetine) se soumettent volontairement à des doses massives de fluor au cours de leur traitement et cette thérapeutique anti-dépressive ne fait qu’aggraver le mal ! Et cet effet pervers du Prozac a pu être démontré avec des rats auxquels la glande pinéale a été enlevée par micro-chirurgie : ils ne répondent plus à l’administration de Prozac. En d’autres termes le Prozac annihile les fonctions de cette glande en accélérant en son sein les dépôts de fluorure de calcium. Belle image d’un résultat sanitaire catastrophique presque à l’échelle de tous les pays de l’OCDE exceptés le Japon et l’Allemagne qui ont banni la fluoration de l’eau, deux pays qui n’ont pas pris le risque de « calcifier l’âme ».

Source : greenmedinfo.com, illustration mélatonine

Le dernier rapport IPCC : un stratagème cynique !

Le dernier rapport IPCC : un stratagème cynique !

Traduction presque libre d’un billet de Donna Laframboise paru sur son blog Big Picture News. Il y a 7 jours l’IPCC a rendu public le résumé de son Rapport Spécial relatif au réchauffement global de 1,5 °C. Il est important de comprendre que tout ce projet était un coup monté – un stratagème cynique pour provoquer les réactions des grands titres des journaux du monde entier – et ça a magnifiquement réussi. Le fait que plus de 90 scientifiques originaires de 40 pays – pour la plupart des universitaires rémunérés par les impôts des contribuables – ont passé des mois à travailler à la rédaction de ce rapport est en soi un vrai scandale.

Vous n’avez qu’à constater ce que dit l’IPCC : « Nous pensons que nous savons à quoi le monde ressemblera dans quelques décennies si la planète se réchauffe de 2 degrés Celsius« .

Reconsidérons donc tous ces nombres hautement spéculatifs et voyons à quel point la situation sera meilleure avec un réchauffement de seulement 1,5 degré. Si l’IPCC était une organisation parfaitement impartiale, le communiqué de presse aurait du préciser que se fixer un but de réchauffement inférieur à 1,5 degrés aurait été tout bénéfice mais comme tout ça nécessite des compromis les politiciens élus doivent être à même de décider ce qui est opportun plutôt que d’écouter les scientifiques car, après tout, le monde est confronté à toutes sortes d’autres problèmes bien plus préoccupants qui méritent une attention particulière.

Au lieu de cela le communiqué de presse insiste sur le fait que le scénario A est bien préférable au scénario B – le scénario A c’est le réchauffement de 2 degrés – alors pourquoi donc c’est celui-là qui est préférable ? Tout simplement parce qu’il doit conduire à une société plus « équitable ». Si l’IPCC utilise un tel argument c’est de l’ergotage politique, ce n’est plus de la science. C’est évident ! Le communiqué de presse commence ainsi : « des changements rapides, considérables et sans précédents de tous les aspects de la société sont nécessaires pour atteindre ce scénario« . Les médias se sont précipités sur cette affirmation et l’ont amplifiée et c’était exactement ce que recherchait l’IPCC.

Les journalistes se sont bien gardé de passer du temps à expliquer au public que ce rapport n’est globalement qu’une comparaison artificielle de deux scénarios également totalement artificiels. Ils se sont également bien gardé de rappeler que les précédentes prédictions apocalyptiques n’avaient pas été vérifiées par les faits.

En février 2004 un comité secret du Pentagone informa le Président Bush que le changement climatique durant les 20 prochaines années aura pour conséquence une catastrophe mondiale. Par exemple en 2020, selon ce comité, une majorité de grandes villes européennes seront submergées par les flots marins. Il règnera un froid sibérien sur la Grande-Bretagne et ce changement de climat menacera directement la sécurité des Etats-Unis … Déjà en 2004 ces prévisions catastrophiques furent prises en considération à Washington et pas seulement par la Maison-Blanche mais également par le Pentagone et la Banque Mondiale. Bush retarda la publication de ce rapport et fut accusé de tous les maux par les médias tant à Washington qu’à New-York. Nous sommes à 14 mois de 2020 et à l’évidence l’Europe n’est exposée à aucun danger d’origine climatique.

Dans la mesure où les journalistes disposent de ces informations gratuites et fausses ils les mettent en exergue sans prendre de risques. CNN a solennellement averti qu’il fallait tenir compte des avertissements de l’IPCC si nous voulons éviter les « effets désastreux du réchauffement ». La BBC a insisté sur le fait que l’auteur Natalie Mahowald de l’IPCC a déclaré qu’il fallait se préparer à d’immenses changements sociétaux et Debra Roberts, officiel de haut rang de l’IPCC, a rajouté qu’il fallait  » mettre la pression sur les décideurs politiques » pour répondre aux défis du réchauffement. Elle a déclaré au Guardian son espoir de voir ce rapport mobiliser les populations et créer une dynamique de changement.

Prenez un sujet complètement artificiel, dites aux médias d’adopter un langage dramatique, demandez à votre staff de faire des déclarations publiques non neutres mais ayant l’air d’être tout sauf partisanes, c’est ça l’IPCC, un organe de propagande à la solde des puissances de l’argent et des lobbys écologistes pour installer une gouvernance totalitaire dans le monde entier.

Note. Le chemin sera ouvert pour que les petits malins organisent de grosses arnaques comme ce qui est arrivé à l’Etat français qui s’est fait déposséder de 1,5 milliard d’euros de taxe dite « carbone » en 2017 par des organisations mafieuses.

USA : Les cafouillis de l’éthanol

L’éthanol-carburant c’est renouvelable, c’est vert, c’est écolo, sauf que …

Capture d’écran 2018-10-23 à 15.54.49.png

Comme tout bon vendeur Donald Trump adore dire à son auditoire ce qu’il désire entendre. La semaine dernière au cours d’un meeting électoral dans l’Iowa Trump a nourri les agriculteurs avec le bon fourrage électoral qu’ils désiraient. Il a même reconnu qu’il avait tenu exactement les propos que les fermiers désiraient entendre. Selon le Wall Street Journal :

« Mon administration protège l’industrie de l’éthanol, OK ? C’est ce que vous voulez entendre » avec toute la candeur politique de mise. Il a révélé que son administration allait autoriser la vente toute l’année de carburant contenant 15 % d’éthanol (E15). Le « Clean Air Act » détermine les règles relatives aux teneurs en éthanol des carburants pour automobiles et le E15 n’était pas autorisé durant les mois d’été car il provoque de la pollution. La plupart des mélanges ne contiennent que 10 % d’éthanol (E10).

L’éthanol-carburant est un cafouillis obscur qui profite uniquement aux gros fermiers produisant du maïs, aux raffineurs et à personne d’autre. Depuis sa création dans les années 1970 l’addition d’éthanol avait été pensée pour alléger les effets des crises sur le marché du pétrole et des milliards de dollars ont été investis dans cette filière. Les subventions gouvernementales sont une politique caractéristique de la « carotte et du bâton » qui modifie les comportements et provoque une distorsion du marché. Pendant des années les stations-service ont bénéficié d’exemptions de taxes pour installer des pompes pour distribuer du biodiesel ou du E15. Résultat des courses le maïs qui est une denrée utilisée dans un grand nombre de préparations alimentaires et aussi pour nourrir les animaux, est détourné par les subventions gouvernementales pour produire du biocarburant. En 2000 environ 6 % de la production américaine de maïs était transformée pour produire de l’éthanol, aujourd’hui ce sont 40 % des récoltes qui sont utilisées pour produire du carburant au lieu d’être utilisées comme aliments.

L’éthanol du maïs permet seulement un gain en termes d’énergie de 30 % par rapport à celle consommée pour le produire selon l’industrie de l’éthanol du maïs (on pourrait dire le lobby) alors que le Docteur Walter Youngquist, Ph.D., titulaire honoraire de la chaire du Département de géologie à l’Université de l’Orégon à Portland a déclaré il y a quelques années que, je cite : « l’éthanol-carburant constitue une perte nette en énergie : il faut 70 % de plus d’énergie pour le produire que l’énergie obtenue à partir du produit final lui-même« . Et le gasoil produite à partir des rafles de maïs, le « biocarburant cellulosique », est pire que l’essence de pétrole pour l’environnement. Une étude financée à hauteur de 500000 dollars par le gouvernement fédéral et publiée dans le journal Nature Climate Change a montré que les biocarburants produisent 7 % de gaz à effet de serre de plus que les carburant conventionnels à base de pétrole. Détourner l’usage du maïs comme aliment pour produire de l’éthanol réduit arithmétiquement l’offre d’aliments et le prix de la nourriture pour les animaux d’élevage s’en trouve augmenté avec comme répercussion une augmentation des prix de la viande, du lait, du beurre, des oeufs et de bien d’autres aliments essentiels. Les terres agricoles servent à produire de l’éthanol et par conséquent le prix des aliments augmente. De plus l’éthanol provoque une usure prématurée des moteurs de voitures et réduit le kilométrage parcouru de 5 à 7 % par rapport à l’essence 100 % pétrole.

Capture d’écran 2018-10-23 à 19.20.02.png

Une étude datant de 2011 de l’EPA (Environmental Protection Agency) a clairement montré que le E15 rejette des quantités plus importantes d’oxydes d’azote, d’oxydes de soufre, de particules et d’ozone que l’essence traditionnelle. C’est l’une des raisons pour laquelle le E15 n’est pas autorisé l’été. De plus le Professeur John DeCicco a présenté devant le Congrès en 2016 ses travaux qui indiquent qu’en réalité les biocarburants rejètent plus de CO2 dans l’atmosphère que les carburants traditionnels. Dans ces conditions l’annonce faite par Trump la semaine dernière quant à l’autorisation par l’administration du E15 toute l’année, une décision qui va à l’encontre des décisions du Congrès et est donc non conforme à la Constitution – mais ça ne dérange apparemment plus personne – et qui est de surcroit fiscalement désastreuse et préjudiciable à l’environnement se révèle finalement conforme à un certain collectivisme qui redistribue la richesse de manière massive.

Les fermiers votent républicain, crient qu’ils haïssent le socialisme sauf quand un certain socialisme démagogique remplit leurs poches. Et pendant ce temps-là nous nous appauvrissons tous parce que la nourritures devient plus coûteuse comme les voitures et les carburants et la planche à billets fonctionne à plein régime pour enrichir une élite de bandits.

Source : theburningplatform.com via ZeroHedge, illustration : ZeroHedge et une pompe à essence en Europe

Commentaire. On peut se poser des questions sur la justification de la production d’éthanol à partir de maïs aux USA mais également en Europe à partir de betteraves. J’ignore à ce sujet quels sont les volumes de betteraves déviées de leur utilisation première pour produire de l’éthanol. Certes la betterave sucrière ne se mange pas, encore qu’elle peut servir d’aliment pour le bétail. Mais la production de sucre à partir de canne est plus logique puisque justement la canne à sucre ne peut pas être proposée à des ruminants comme aliment. Peut-être que des zébus courageux pourraient s’en contenter mais je n’ai jamais vu de zébus égarés dans un champ de canne à Marie-Galante et festoyer en broutant de la canne. Que le Brésil soit le premier producteur d’éthanol « vert » se comprend car la canne pousse comme de la mauvaise herbe mais que les gouvernements dont celui des USA incitent les agriculteurs à produire du maïs pour alimenter la filière carburant « vert » me paraît être une aberration totale. Obama a largement contribué à cette promotion mais je ne ferai aucun commentaire à ce sujet de peur d’être taxé d’anti-américanisme primaire et allez savoir de raciste. Je ne pense pas que le lobby écolo ignore les faits présentés par Bob Livingston auteur de cet article.

Quelques mémoires de ma carrière de chercheur en biologie (2) : les épinards.

Lorsque le CNRS me pria poliment de me reconvertir à la biologie végétale (relire le précédent épisode) je n’y trouvais aucun inconvénient, quoi de plus normal que d’aller du coeur de porc qui fut le matériel de mes études de thèse aux épinards car il n’y a pas de grandes différences entre les êtres vivants. Nous sommes tous issus de bactéries primordiales qui ont colonisé la planète avec un fait remarquable, l’apparition des bactéries utilisant l’énergie solaire pour vivre à une époque reculée, très reculée, où il régnait un atmosphère très riche en gaz carbonique entourant la planète Terre. L’évolution que Jacques Monod appella à juste titre le hasard fit que de ces structures primitives, par nécessité (toujours pour paraphraser Monod), évoluèrent vers des organisations multicellulaires complexes qui ont finalement abouti, un milliard d’années plus tard vers l’être humain. Cet être humain se croit – quel orgueil ! – au centre du monde, une vieille réminiscence des principes fondateurs de la papauté, alors que les épinards sont des êtres vivants beaucoup plus complexe que l’homme, tant sur les plans génétique que métabolique.

L’épinard est un animal de laboratoire au même titre que la souris ou le ver nématode Caenorhabditis elegans et quand je me retrouvais dans un environnement de recherche industrielle privé, le centre de recherches de Rhône-Poulenc-Agrochimie, il me fut signifié de rechercher de nouvelles cibles herbicides. Il faut que je m’arrête un instant sur ce changement d’affectation sous la houlette du CNRS. Lorsque je pris mes nouvelles fonctions dans ce prestigieux laboratoire de recherches en agronomie mes collègues de l’Université – tous des gauchistes post-soixante-huitards attardés (et c’est toujours le cas aujourd’hui) – me traitèrent de rénégat, de vendu aux intérêts industriels privés, de vendu puisque j’allais mettre mes connaissances acquises aux frais de l’Etat au service des intérêts financiers et industriels d’une société qui bafouait les règles de bonne conduite de l’Université. Ah bon ? Je n’ai au contraire jamais travaillé dans un laboratoire aussi soucieux des normes de protections environnementales, nous étions au milieu des années 1980, et du respect de l’éthique fondamentale de toute recherche scientifique. Travailler sur des épinards était tout aussi captivant que de travailler sur le placenta humain, ce que je fis quelques années auparavant, ou plus prosaïquement sur les coeurs de porc.

Après une brève réunion entre mon nouveau patron oeuvrant au sein du CEA (Commissariat à l’énergie atomique) et le Directeur des recherches du centre, il me fut confié le défi d’élucider la biosynthèse des vitamines B1 et B6 chez la plante afin de localiser, donc, une nouvelle cible herbicide potentielle.

J’ajouterai ici une petite anecdote au sujet du glyphosate qui venait d’être découvert par Monsanto. Il se trouve que cette découverte fut le résultat d’une erreur de manipulation du technicien de la serre dans laquelle était testée cette molécule nouvelle et incroyablement simple sur le plan strictement chimique. Ce technicien avait oublié de nettoyer le carré de terre dans lequel les essais avaient été réalisés avant de partir en vacances. À son retour il constata que toutes les plantes étaient mortes et il appella le responsable des essais. Or il se trouve que cette molécule avait été également testée une année auparavant par la société dans laquelle je venais d’arriver pour sévir dans mes recherches. Le technicien de la serre avait été tout simplement plus discipliné que son homologue américain et l’effet du glyphosate fut ignoré car cet herbicide n’agit pas instantanément. J’ajouterai après avoir relaté cette anecdote qu’à cette époque il était donc vital pour la société d’identifier une nouvelle cible herbicide pour se laver de ce genre d’affront.

À force d’acharnement et de créativité dans le domaine analytique j’eus au moins la satisfaction de pouvoir publier quelques articles relatifs à cette biosynthèse des vitamines du groupe B qui était alors inconnue mais qui ne firent pas un grand bruit car il était acquis que les plantes descendaient des bactéries photosynthétiques et que cette biosynthèse ne pouvait pas être différente de celle des bactéries ce que mes travaux vérifièrent largement. Un chercheur rémunéré par l’Etat doit prouver qu’il travaille, ce que je fis donc. En fait pour trouver une cible pour un nouvel herbicide il aurait suffi de travailler sur des bactéries photosynthétiques. Et si une molécule parmi la collection de plusieurs centaines de milliers dont disposait alors ce centre de recherche montrait un effet alors il serait plus approprié de s’affranchir de travaux de recherche complexes. C’était l’époque où ce que l’on appelle le screening haute fréquence était mis en place par les grands laboratoires pharmaceutiques ou impliqués dans la recherche phytosanitaire.

Cette approche consiste à cultiver des bactéries, des levures ou des cellules végétales dans des boites comportant 96 petites alvéoles et d’y ajouter des milliers de produits différents à l’aide de robots, des produits qui sur le plan chimique diffèrent le plus souvent d’un iota puis d’examiner les résultats eux-mêmes analysés automatiquement. Lorsque ce type d’approche totalement déshumanisé et livré au hasard pur signale un « hit » – un résultat pour parler français – la molécule repérée par un code-barre est confiée à une technicienne qui suivra un protocole rigide d’identification du mécanisme d’action du produit en question.

Autant dire que pour moi il ne s’agissait plus de science mais de loterie, en quelque sorte. C’est toujours ainsi que les grands groupes, et plus que jamais car tout est robotisé, pharmaceutiques et agrochimiques travaillent aujourd’hui avec quelques améliorations tout de même. En un peu plus de 30 ans les choses ont bien changé. Par exemple la puissance de modélisation des ordinateurs fait qu’à partir d’une séquence de l’ADN du gène codant pour un enzyme on peut prédire sa structure spatiale. Il suffit alors de manipuler une levure ou une bactérie pour produire la protéine d’intérêt puis de trouver les conditions pour arriver à la cristalliser, une opération effectuée à l’aide de robots dès l’instant où il a été possible d’obtenir des quantités suffisantes de cette protéine à l’aide de microorganismes génétiquement modifiés à cet effet mais néanmoins purifiées par des « petites mains » car il faut tout de même un minimum d’intervention humaine, pour réaliser une étude cristallographique dans un centre disposant d’une synchrotron qui permet d’émettre des rayons X de grande qualité.

Les résultats sont ensuite traités à l’aide de puissants ordinateurs et alors le chimiste pourra, toujours à l’aide d’ordinateurs de modélisation, concevoir une molécule chimique susceptible d’inhiber l’activité de l’enzyme en question, et le tour est joué.

La créativité telle que je la concevais car je faisais partie de ces chimistes des protéines de la vieille école a perdu tout son sens et c’était là le point auquel je fus confronté car j’étais et je voulais rester un chercheur de « paillasse », cette table carrelée sur laquelle on travaille avec des tubes à essai et il me fallut peu de temps après ces quelques années passées de recherche sur la biosynthèse des vitamines du groupe B chez les plantes pour aller frapper à la porte du Directeur des recherches du centre et le prier de me confier un autre sujet de travail correspondant mieux à mon savoir-faire de vieux crabe des protéines. Ce sera l’objet d’un prochain épisode de ces mémoires.

Parkinson et Alzheimer : les femmes plus souvent atteintes

Capture d’écran 2018-10-18 à 09.20.43.png

Une nouvelle étude réalisée aux Pays-Bas sur 12000 personnes suivies depuis l’âge de 45 ans confirme que les femmes sont plus fréquemment atteintes au cours de leur vie par des maladies neurodégénératives en comparaison des hommes. Près de la moitié des femmes seront atteintes des maladies de Parkinson ou d’Alzheimer alors que seulement un tiers des hommes en souffriront. La santé de ces personnes a donc été suivie dès l’âge de 45 ans entre 1990 et 2016. Durant cette période 1489 d’entre elles ont été atteintes de la maladie d’Alzheimer, 263 de la maladie de Parkinson et 1285 ont souffert d’un accident vasculaire cérébral avec des séquelles incurables.

En d’autres termes à l’âge de 45 ans les femmes ont 26 % de chance de développer l’une ou l’autre de ces trois maladies alors que pour les hommes les chances ne sont que de 13,7 %. À 45 ans on n’a que peu de chances de souffrir de l’une de ces trois maladies et le corps médical se focalise plutôt sur les cancers, le surpoids et le diabète. Par conséquent, compte tenu du fait que l’hypertension artérielle, les troubles cardiaques, un taux de cholestérol élevé et le diabète de type 2 sont considérés comme des facteurs favorisant l’apparition de l’une ou l’autre des trois affections cérébrales mentionnées ci-dessus, il paraît important selon cette étude de surveiller de près ces quatre paramètres dès l’âge de 45 ans.

Comme le suggère enfin cette étude, puisqu’il n’existe encore pas de traitement pour prévenir ou atténuer significativement la progression des maladies de Parkinson et Alzheimer, la priorité absolue, dès l’âge de 45 ans, est d’avoir une alimentation équilibrée, de contrôler son poids, de s’abstenir de fumer, de rester physiquement actif, de boire des boissons alcoolisées modérément et de surveiller la tension et le taux de cholestérol pour repousser autant que faire se peut l’apparition des ces maladies. Autant dire que cette étude n’a pas apporté beaucoup d’éléments nouveaux mais seulement une confirmation qu’il vaut mieux prévenir que guérir et avoir une vie de spartiate, ce que je n’ai pas vraiment choisi sachant que d’une manière ou d’une autre on est tous condamnés à mourir …

Source : http://dx.doi.org/10.1136/jnnp-2018-318650

Nouvelles du Japon : les fromages français

Capture d’écran 2018-10-19 à 19.19.11.png

Dans le sous-sol du grand centre commercial situé au dessus de la gare ferroviaire qu’utilise mon fils chaque jour se trouve une fromagerie française filiale d’un magasin qui se trouve rue de Richelieu à Paris. On n’y trouve pas que des fromages français mais parmi ceux-ci on peut noter du Mont-d’Or ou encore de l’Epoisse dans le même genre et aussi du comté, de la fourme, du Brie et un assortiment de fromages de chêvre cotoyant du St-Félicien. Tout près de cette fromagerie prône une boulangerie française qui remporte un franc succès auprès des Japonais. On y trouve à peu près tout ce qu’un Parisien a l’habitude d’acheter dans sa boulangerie de quartier mais surtout des baguettes dont la qualité, à mon humble avis, dépasse celle de la baguette parisienne. Le maître boulanger a séjourné près d’un an en France pour apprendre à faire le pain et d’autres produits hors pâtisserie, les amateurs pouvant toujours aller s’approvisionner chez Dalloyau à l’étage au dessus. À noter que les fours utilisés dans cette boulangerie sont fabriqués en France et la farine, qui provenait de France il y a une dizaine d’années, est maintenant produite à Hokkaido à partir de blé tendre.

Capture d’écran 2018-10-19 à 22.57.33.png

Le sieur Kazuhiko Ochiai, agronome de son état, visita la France il y a une trentaine d’années et il découvrit avec ravissement les fromages de ce pays et leurs variétés que d’aucuns pourraient qualifier d’infinies tant il y a de fromages différents les uns des autres. Aujourd’hui Kazu-san, âgé de 74 ans, est installé dans des montagnes au nord de Tokyo et il gère « sa » fromagerie d’où sortent 5 types de fromages pour un chiffre d’affaire annuel de 20 millions de yens, l’équivalent de 150000 euros. Mais il y a un problème de taille. Le Japon a signé un accord commercial il y a quelques mois avec l’Union Européenne, le JEFTA (Japan-EU free trade agreement), qui prévoit la suppression progressive des droits de douane sur un grand nombre de produits dont les fromages. Pour ces derniers elle est actuellement de 29,8 %. Le JEFTA est un accord « lourd » car il concerne près du tiers du PIB mondial et plus de 600 millions d’habitants. Et c’est d’autant plus inquiétant pour des petits artisans comme Kazu-san qu’ils devront faire face à la rude concurrence des producteurs industriels français même si les Japonais consomment 10 fois moins de fromage que les Français (27 kg par an) ou les Allemands (24,7 kg) ou encore les Danois (28 kg). Sur l’île d’Hokkaido des fromagers produisent déjà un excellent camembert mais ils devront aussi faire face à la concurrence française.

Ce dimanche mon fils va recevoir quelques amis et l’un des mets de plus en plus prisé à la fin du repas est un plat de fromages qu’il constituera à grands frais.

Inspiré d’un billet de l’AFP, illustrations AFP