Propagande …

Propagande …

Encore une fois l’Agence France Presse se distingue par ses dépêches de propagande gouvernementale (22 janvier 2018 – 19h25). Voici le texte de cette dépêche.

La France n’a pas tenu ses objectifs d’émissions de gaz à effet de serre en 2016.

La France n’a pas tenu ses objectifs d’émissions de gaz à effet de serre en 2016, selon un bilan provisoire publié lundi par le Ministère de la Transition Écologique, des résultats qui « appèlent à une réaction », indique le Ministère.

Après avoir atteint « sans marge » son objectif de 2015, la Franc a émis 463 millions de tonnes de gaz à effet de serre (en équivalent CO2) en 2016, soit 3,6 % de plus que ce qui était prévu, le dérapage venant essentiellement des secteurs du transport et du bâtiment. Les émissions ont toutefois baissé de 15,3 % par rapport à leur niveau de 1990.

Cet écart s’explique essentiellement par des éléments conjoncturels, comme le faible prix des produits pétroliers « qui incite à la consommation », et l’indisponibilité de certaines centrales nucléaires « qui a provoqué un recours accru aux centrales » à charbon et à gaz, selon le document mis en ligne par le Ministère. « Certains indicateurs sectoriels s’écartent dès 2015 de la trajectoire », notamment dans le bâtiment et les transports, relève-t-il. Il s’agit du « premier écart à la trajectoire » définie dans la stratégie nationale bas carbone, qui fixe chaque année un « budget carbone » à respecter afin d’atteindre une baisse de 27 % des émissions de gaz à effet de serre en 2028 par rapport à 2013 et – 75 % d’ici 2050. Ces résultats impliquent que la France « ne peut pas avoir un regard prétentieux » vis-à-vis du reste du monde, a estimé le Ministre de la Transition écologique et solidaire, Nicolas Hulot. ‘Nous avons nous-mêmes nos propres contradictions », a-t-il dit lundi lors de ses voeux à la presse. « Un renforcement des actions apparaît donc nécessaire pour rester en phase avec nos objectifs’, indique le Ministère. Les émissions de gaz à effet de serre françaises proviennent essentiellement des transport (29 %), de l’agriculture (20 %) et du bâtiment (19 %), et tous ont engendré plus d’émissions que ce qu’ils auraient dû. 11 % dans le bâtiment

La palme revient au secteur du bâtiment, dont les émissions sont globalement stables depuis 1990 mais ont dérapé de 11 % par rapport à l’objectif, les ménages ayant eu plus recours aux énergies carbonées pour le chauffage. Dans les transports, les émissions sont 6 % supérieures à ce qui était attendu et en hausse de 12,4 % depuis 1990, et elles sont 3 % trop élevées dans l’agriculture. À l’inverse, celles issues de l’industrie sont globalement conformes aux attentes grâce au développement de « nouvelles technologies de production », tandis que celles venues de l’énergie et des déchets sont inférieures au plafond prévu.

Le Ministère de la Transition écologique met en avant les mesures de son Plan Climat pour améliorer la performance française. Le gouvernement a décidé d’accélérer la montée en puissance du prix du carbone, de soutenir le remplacement des véhicules à forte émission de gaz à effet de serre par des véhicules moins pollueurs ou encore de renforcer la rénovation énergétique des bâtiments. La stratégie nationale bas carbone doit être révisée cette année, notamment pour y inclure l’objectif ambitieux de neutralité carbone à l’horizon 2050.

Capture d’écran 2018-01-22 à 20.17.16.png

Ce délire verbal qui n’est pas vraiment du fait de l’AFP (je ne lirai jamais le rapport du Ministère) illustre à merveille la totale incompétence et les contradictions du sieur Hulot qui semble ne pas comprendre comment une nation et a fortiori un individu fonctionnent. Il faut un abri pour vivre (une maison), avoir des moyens à sa disposition pour se déplacer (transports en commun ou automobile) et enfin se nourrir. Ce sont les trois facette fondamentales de la vie de tous les jours. La grande nouvelle pour Hulot est que l’industrie est le bon élève de la classe : ben voyons ! La France se désindustrialise sévèrement et c’est la raison pour laquelle ce secteur n’a pas augmenté ses émissions de carbone (hors cimenteries). Si l’Etat décide de taxer le ciment qui est un gros émetteur de CO2 – parce que ça va arriver – alors l’ensemble du secteur du bâtiment plongera. Quid de la fermeture prématurée du centre de production électro-nucléaire de Fessenheim ? Ça fait aussi partie du programme de réduction des émissions de carbone ? Le camembert ci-dessus classe pourtant la France parmi les meilleurs élèves dans le domaine du carbone : c’est à n’y rien comprendre. La seule conclusion à tirer de cette dépêche de l’AFP est tout simplement que Hulot est totalement incompétent et déconnecté des réalités économiques qui concernent les Français dans leur vie quotidienne. Le total désastre de la transition énergétique allemande (Energiewende) devrait servir d’exemple à ce pitre, mais non, il veut tout simplement précipiter la France dans le gouffre. De toutes les façons après lui (2050 c’est loin) le déluge … (J’ai ajouté des M majuscules à ministère et ministre et je me demande bien pourquoi)

Source : AFP, illustration : Union of Concerned Scientists

Le paradoxe français

Capture d’écran 2018-01-22 à 12.28.45.png

Durant de nombreuses années et dès le début des années 1970 la population occidentale a été soumise à une propagande organisée par le lobby de l’industrie agro-alimentaire essentiellement nord-américain qui consistait à créer et maintenir la peur des graisses animales. Sans vraiment de preuves scientifiques avérées les graisses animales furent déclarées nocives car elles provoquaient des accidentes cardio-vasculaires. Il était en effet de toute première importance d’assurer de confortables revenus aux producteurs d’huiles végétales. L’industrie sucrière promut dans le même temps les bienfaits du sucre. Les progrès concomitants de l’industrie permirent d’élaborer des sirops enrichis en fructose provenant du traitement de l’amidon de maïs, une matière première très peu coûteuse qui ne demandait qu’à être valorisée pour réaliser des profits monstrueux. De même apparurent les huiles partiellement hydrogénées qui constituent un non-sens physiologique de par leur dangerosité.

Il en résulta l’épidémie maintenant presque planétaire – du moins dans les pays développés, y compris la Chine – de l’obésité et de toutes les pathologies qui y sont liées. Et pourtant l’industrie agro-alimentaire ignora sciemment des études antérieures qui avaient montré sans la moindre contestation possible que les graisses animales n’étaient pas mauvaises pour la santé. Des travaux présentés le 5 avril 1957 à un meeting de l’American Epidemiological Society à Albany dans l’Etat de New-York indiquaient clairement que l’incidence de maladies cardio-vasculaires était proportionnelle à la richesse en graisses animales de l’alimentation étudié par pays mais que la France était une exception : l’ « exception française » qui fut par la suite attribuée au resveratrol présent dans le vin rouge. Nous allons y revenir.

Les graisses animales comprennent le saindoux, la graisse de porc et également le beurre, le fromage et les oeufs qui sont classés dans cette catégorie par la FAO, organisme onusien basé, je crois, à Rome. Pour justifier l’exception française partagée par plusieurs pays du nord de l’Europe le lobby de l’agro-alimentaire organisa des études sur le resveratrol pour expliquer, au moins, l’exception française. Il est rapidement apparu, au cours d’études subséquentes, que pour qu’un effet significatif du resveratrol sur les artères coronaires soit identifié il fallait boire au minimum 6 litres de vin rouge par jour ! Cette simple constatation révéla la supercherie organisée par le lobby de l’industrie agro-alimentaire.

Aujourd’hui la santé des populations se dégrade avec l’ingestion massive de sucres et de graisses végétales partiellement hydrogénées dont la toxicité pour le métabolisme est pourtant reconnue, faut-il le répéter : la margarine est tout simplement toxique pour la santé. Revenir en arrière et faire amende honorable semble être une démarche impossible tant pour les organismes internationaux que pour les gouvernements. Et pourtant quoi de meilleur que des pommes de terre coupées en cubes et cuites dans du beurre, du saindoux ou de la graisse de porc comme ma mère avait coutume de le faire presque chaque jour dans une coquelle de fonte. O tempora, O mores.

Source et illustration : J. Yerushalmy et H. E. Hilleboe (Université de Berkeley), New-York State Journal of Medicine, 1957, pp. 2343-2352 via le blog de Donna Laframboise

Changements climatiques : un effet des rayons cosmiques ?

SN_1006.jpg

Le premier mai 1006 puis en 1054 eurent lieu deux évènements cosmiques remarquables qui ont été répertoriés par les chroniqueurs tant en Europe qu’en Chine ou en Egypte. Il s’agit de l’explosion d’étoiles massives, phénomènes appelés supernova, qui inondèrent l’Espace de particules et de rayonnements divers. La première explosion (SN1006, illustration du « reste » de cette explosion) provoqua ce que les astronomes de l’époque appelèrent une nouvelle étoile tellement brillante qu’elle était non seulement visible à l’oeil nu en plein jour mais qu’elle éclairait suffisamment la nuit pour distinguer les ombres portées. Sa luminosité apparente correspondait à celle de la Lune au premier quartier. Elle eut pourtant lieu 7200 ans plus tôt dans notre Galaxie dans la constellation du Loup. La deuxième explosion (SN1054) eut lieu 48 ans plus tard dans la constellation du Taureau et il en reste aujourd’hui de magnifiques volutes colorées, témoins de ce cataclysme (illustrations Wikipedia) qui eut lieu en réalité 6500 années plus tôt.

Crab_Nebula.jpg

En analysant les carottes glaciaires du dôme Fuji dans l’Antarctique les physiciens du Riken Institute au Japon ont pu retrouver des traces de ces deux explosions. Il s’agit d’ions nitrate formés dans la haute atmosphère par le rayonnement gamma provenant de ces supernova (lien : https://arxiv.org/pdf/0902.3446.pdf accès libre). Les physiciens qui se sont affairé pour analyser ces carottes glaciaires ont pris soin d’éliminer toute autre cause comme des éruptions volcaniques ou d’autres variations brutales du climat. Deux pics séparés d’environ 47 ans – à la précision des mesures près – correspondent à ces deux explosions massives.

Capture d’écran 2018-01-20 à 14.11.46.png

Le Soleil émet également des rayons gamma et comme il est possible de le remarquer dans la figure ci-dessus l’évolution de la quantité de nitrates suit à peu un cycle d’environ onze ans qui a été corrélé par les auteurs de cette étude aux cycles solaires. Il est important de noter que l’échelle des temps est double. La calibration tient en effet compte de la compressibilité de la glace et il existe deux modèles de calibration différents qui ont été explicités dans cette figure. Enfin l’évènement daté de 1080 n’a pas pu être lié à une autre supernova car il n’existe aucun document dans l’Hémisphère nord qui ait relaté un tel évènement cosmique. Peut-être alors s’agissait-il d’une supernova invisible depuis les contrées septentrionales habitées.

Toujours est-il que les ions nitrate ont un effet direct sur la formation de nuages d’altitude. Mais est-il raisonnable d’en déduire que les supernova – et donc le rayonnement cosmique – ont aussi un effet direct sur le climat ? Ces deux (ou trois ?) explosions ont précisément eu lieu au cours de la période médiévale de climat chaud (années 800 à 1300). Les chroniques de l’époque font état de famines soudaines dont les causes sont peu connues entre les années 1000 et 1100 et une diminution sensible des températures telles qu’elles ont pu être reconstituées par analyse de teneurs en oxygène-18 des coquillages retrouvés dans les fjords du nord-est de l’Islande (voir le lien) :

Capture d’écran 2018-01-20 à 14.42.52.png

Toutes les spéculations sont permises et pour ma part je ferai le point des connaissances actuelles sur ce sujet dans un prochain article de ce blog. J’en profite ici pour rappeler à mes lecteurs que tous les billets de mon blog relatifs au climat et à bien d’autres sujets sont adossés sur des articles scientifiques publiés dans des revues à comité de lecture et que je n’invente rien. Je ne fais qu’informer mes lecteurs objectivement et je me passerais volontiers des commentaires haineux de certains de mes lecteurs.

Source : http://www.pnas.org/cgi/doi/10.1073/pnas.0902522107 ou http://www.pnas.org/107/12/5306.full?pdf?with-ds=yes en accès libre

L’idéologie anti-nucléaire : une réminiscence du passé

Capture d’écran 2018-01-17 à 18.04.21.png

Durant les années 1970 un activiste anti-nucléaire était préoccupé par la tyrannie des puissances nucléarisées qui possédaient l’arme absolue pour dominer le monde. Aujourd’hui les activistes anti-nucléaire ont peur des radiations. Il n’y a pas eu de domination tyrannique du monde par l’une de ces grandes puissances (en 1970 : USA, URSS, Grande-Bretagne et France, les 4 puissances nucléarisées qui disposaient d’un droit de veto au Conseil de Sécurité des Nations-Unies) et le danger des radiations est très mal compris. Selon Scott L. Montgomery aujourd’hui c’est le « changement climatique » qui préoccupe les esprits et s’il est réel nous devons développer l’énergie nucléaire. Scott Montgomery est un géophysicien professeur associé à l’Université de l’Etat de Washington à Seattle. Il a passé trois ans à l’Université Waseda à Tokyo comme professeur d’anglais et s’est imprégné de la culture japonaise et son premier emploi à son retour aux USA fut un poste de traducteur de japonais en tant que géophysicien dans une grande compagnie pétrolière. Il a écrit un livre en 2015 qui fut un best-seller :  » The Shape of the New : Four Big Ideas and How They Built the Modern World » ( L’aspect de la nouveauté : 4 grandes idées et comment elles ont façonné le monde moderne). Voici une traduction de son article paru sur le site de la World Nuclear Association.

J’étais en 1974 étudiant à l’Université Cornell en géosciences et j’étais un peu activiste anti-nucléaire. Je suis allé à Shoreham, sur l’île de Long Island, pour tenter de stopper les bulldozers qui préparaient le terrain pour la construction d’une nouvelle centrale nucléaire. Je faisais partie de groupes comme l’Alliance Clamshell ou l’Aberlone. j’étais anti-armes nucléaires très profondément et aussi anti-énergie nucléaire et il y avait une raison bien spécifique à cette attitude. À cette époque on était en plein milieu de l’affaire du Watergate et de la guerre du Vietnam et on se souciait beaucoup de l’accroissement du pouvoir de l’Etat, et pas seulement de l’Etat mais aussi du complexe militaro-industriel. Tout le gouvernement était également impliqué dans ce processus. Il y avait la puissance des grandes corporations, l’industrie de la défense et le pouvoir du gouvernement. L’énergie nucléaire nécessitait d’énormes investissements et pour l’opinion publique elle était un symbole et un signe du déclin de la démocratie. L’énergie nucléaire paraissait comme une étape vers la tyrannie et il y avait donc beaucoup d’enjeux idéologiques.

De tous les ouvrages que j’ai pu lire c’était un peu la même attitude en Europe et en particulier en Allemagne. Donc si vous étiez un libéral et si vous pensiez que cette situation allait arriver alors il fallait s’opposer à l’énergie nucléaire. Même si vous saviez comment fonctionne un réacteur nucléaire ça n’avait pas d’importance parce que les résultats attendus étaient infiniment plus importants.

C’est ainsi que bien qu’étant scientifique, en allant dans ces endroits comme Long Island (voir note 1 en fin de billet) et d’autres régions impliquées dans l’énergie nucléaire sous tous ses aspects en comprenant les technologies relatives à l’exploitation des sols et les ressources de la croûte terrestre, je n’ai jamais pris le temps de me documenter sur la technologie nucléaire civile.

Aujourd’hui, bien des années plus tard avec le changement climatique qui est arrivé il est clair que les sources d’énergie non carbonées feront partie du futur et je me trouve de l’autre côté de la science. Je donne maintenant des cours d’énergie renouvelable à l’université mais au début des années 2000 il s’agissait d’un nouveau concept en termes de politique, du moins en ce qui me concernait. Néanmoins beaucoup d’étudiants désiraient en savoir plus sur l’énergie nucléaire. Il s’agissait de la génération qui n’avait pas connu Three Miles Island et Tchernobyl et c’était avant Fukushima. Ce fut donc pour moi une obligation de me documenter afin d’atteindre un degré de connaissances tel que je pourrais ensuite intégrer cet enseignement sur l’énergie nucléaire à mes cours. Je me rendis compte qu’il y avait une multitude de choses que j’ignorais totalement et que l’énergie nucléaire était bien plus complexe que je l’avais imaginé auparavant.

Naturellement cette frayeur de la tyrannie n’arriva jamais mais l’accident de Tchernobyl fut, lui, bien réel et les populations devinrent alors effrayées par les radiations. C’est ainsi qu’il me fallut aussi me documenter sur les radiations et c’est aussi un domaine extraordinairement complexe. Dès qu’on se penche sur l’impact des radiations utilisées en milieu hospitalier on comprend que le sujet des radiations a été également mal interprété par les médias car il est aussi très complexe. Le public n’a pas la moindre idée précise de ce problème et personne ne l’a jamais aidé correctement pour le comprendre. On nous a seulement appris à nous méfier!

C’est ainsi que le public considère globalement qu’être exposé aux radiations est mortel alors que ce n’est certainement pas le cas. L’un des sujets les plus captivants a été de dialoguer avec tous les experts, radiologues, médecins, radiobiologistes, physiciens et tous les professionnels de la médecine qui ont été directement impliqués dans les catastrophes de Tchernobyl et de Fukushima. Toute cette communauté d’experts sait qu’une faible dose de radiations de l’ordre de 100 millisieverts par an (voir note 2 en fin de billet) n’est pas ou n’est que très faiblement carcinogène. Pour l’opinion publique une telle dose peut paraître très élevée puisque les seuils de sécurité ont été fixés à des valeurs extrêmement faibles dans le but de protéger les personnels travaillant dans les secteurs de la radiologie médicale et des centrales nucléaires. Le gros problème avec ces régulations est qu’elles entretiennent la terreur du public au sujet des radiations. C’est ainsi qu’une dose de 1 mSv par an surajouté la radioactivité naturelle a été considérée comme conforme à la sécurité des personnes qui, après avoir été déplacées de leur domicile à la suite de l’accident de Fukushima, ont été autorisées à retourner vivre à leur domicile. C’est tout simplement absurde. Un habitant de la Préfecture de Fukushima qui irait s’installer dans le Colorado à Denver, dans la région de Limoges en France ou de Salamanque en Espagne s’exposerait à une radioactivité naturelle trois fois plus élevée que dans certaines zones dites contaminées dans le périmètre d’exclusion de 30 kilomètres autour du site de Fukushima !

Il y a donc quelques chose de totalement faux au sujet de la radioactivité. Ça n’a aucun sens ou alors ça n’a de sens que pour alimenter l’angoisse et l’effroi de manière totalement exagérée. Si l’on compare l’énergie nucléaire à toutes les autres sources d’énergie, en dehors peut-être des panneaux solaires (voir note 3), c’est la source d’énergie la plus sûre. Il y a eu à peu près 300 réacteurs nucléaires construits dans le monde ces dernières 55 années, il y a eu 3 accidents majeurs et moins de 100 morts (les pompiers à Tchernobyl) : ce n’est donc pas une technologie dangereuse dans tous les sens du terme et si les estimations de cancers de la thyroïde dans la région de Tchernobyl ont été estimés à 5000 ce n’est pas non plus un désastre. Il y a chaque années des dizaines de milliers de morts dans les mines de charbon et les sites de production de pétrole et de gaz naturel. N’oublions pas non plus l’hydroélectricité : seulement en Chine il y a eu des centaines de milliers de morts à la suite de ruptures de barrages. En une année, en 1975, 4 ans avant l’accident de Three Mile Island, 600 personnes moururent à la suite de ruptures de barrages aux USA. Ces accidents n’ont jamais fait la une des journaux. Après Three Mile Island, un accident durant lequel personne n’a été blessé ou fortement irradié, de multiples plaintes et procès ont été commentés dans la presse à grande distribution et à la télévision pour bien entretenir l’effet psychologique de la terreur alors qu’une multitude d’expertises commandées par les pouvoirs publics ont montré qu’il n’y avait jamais eu d’augmentations de cancers dans la région de Three Mile Island.

Toutes ces contradictions sont carrément troublantes et elles le sont d’autant plus quand on se penche sur l’usage des rayonnements ionisants et des radio-isotopes en médecine. C’est la raison pour laquelle j’ai décidé d’écrire un livre sur ce sujet avec Thomas Graham qui fut un des négociateurs pour le traité de non-prolifération nucléaire pendant 40 ans. Il m’alerta après l’accident de Fukushima en estimant que la presse grand-public ne dirait jamais la vérité au sujet de cet accident. Ce fut un accident comme il en arrive régulièrement dans l’industrie. Personne n’a été blessé et seuls les habitants de la région promptement évacués en ont souffert. Ce livre décrit en détail l’impact de l’utilisation des radiations et des radio-isotopes en médecine et la radioactivité naturelle, région par région. Le but de ce livre est d’éduquer le public et de lui exposer ce qui entre en jeu dans l’énergie nucléaire, ce qui a été mal interprété pour des raisons diabolisantes ou encore l’attitude négative de quelques activistes anti-nucléaire qui en sont restés aux peurs de la tyrannie des années 1950 et 1960 et ne sont jamais sortis de cette problématique. Nous sommes fautifs en ce sens que nous avons tendance à ignorer les informations scientifiques et techniques nouvelles alors qu’elles devraient au contraire permettre de modifier notre point de vue sur l’énergie nucléaire. Et ce n’est pas seulement le public qui réagit négativement car certains scientifiques n’ont toujours pas fait l’effort de reconsidérer les faits avec objectivité. Il est en effet très important pour l’humanité toute entière de disposer d’une source d’énergie décarbonée, continue et fiable. L’énergie nucléaire représente 60 % de l’électricité décarbonée aux USA et en Europe environ 50 %, la France étant championne en la matière. Il ne nous est pas permis de renoncer à l’énergie nucléaire car il n’existe pas de sources d’énergie renouvelables pouvant satisfaire les besoins de l’économie moderne. Peut-être que dans un avenir lointain ce sera réalisable mais il est inacceptable de vouloir parier sur un avenir incertain sans même avoir aujourd’hui une quelconque certitude sur l’avenir des technologies relatives à ces énergies renouvelables.

Le changement du climat (voir note 4) représente une menace tellement préoccupante qu’il est nécessaire de développer l’énergie nucléaire pour une raison très simple : cette technologie est connue et éprouvée. Les pays occidentaux, pour des motifs irrationnels, veulent abandonner cette source d’énergie. L’expérience et le savoir-faire industriels disparaîtront rapidement au profit de l’Inde, de la Chine et d’autres pays qui, avec l’aide de la Russie, domineront dans un délai relativement court ce marché en favorisant leur développement économique décarboné avec de l’électricité produite à un prix abordable. Nous Occidentaux qui avons mis au point l’énergie nucléaire civile n’auront alors plus que des moulins à vent pour nous éclairer … quand il y aura du vent.

Source : World Nuclear Association. Illustration : The Conversation

Note 1. Le plus important gisement d’uranium dans le monde est l’eau des océans. Au cours du projet Manhattan le sel de mer fut ponctuellement utilisé comme source alternative d’uranium par électrolyse de l’eau, l’uranium étant une impureté contenue dans le sodium à hauteur de 0,09 microgrammes par kg. Des marais salants de Long Island et de Floride furent exploités à cette fin. Il est opportun de rappeler que l’uranium n’est pas un métal rare puisqu’il est aussi abondant que l’étain ou le zinc dans la croûte terrestre.

Note 2. Le sievert est une unité de dose de rayonnement qui s’exprime en Joules par kg de poids corporel. L’effet physiologique des radiations dépend de l’organe anatomique considéré et un facteur de correction pondérale doit donc être pris en compte. Par exemple les gonades et la moelle osseuse sont plus sensibles que l’oesophage. Enfin la dose de rayonnement dépend de l’énergie de ce dernier. La dose de 100 mSv par an est de l’ordre du rayonnement naturel atteint dans de nombreuses régions du monde dont la principale source est le potassium-40 naturellement présent dans notre organisme (400 microsieverts par an). Manger une banane qui contient du potassium-40 correspond à une dose de 0,1 micro sievert. Une radiographie pulmonaire représente 20 microSv, une mammographie 400 microsieverts, un scanner cérébral 2 millisieverts et un scanner du thorax 7 millisieverts, des doses reçues en quelques minutes et non pas étalées sur une année. Un employé d’une centrale nucléaire est supposé ne pas recevoir de dose de radiations supérieure à 50 mSv qui s’ajoute à la radioactivité naturelle.

Note 3. La production de panneaux solaires et de génératrices électriques des éoliennes sont des technologies polluantes qui requièrent souvent l’utilisation de minerais contenant de fortes quantités de thorium-232 qui est un émetteur de rayonnements alpha (noyaux d’hélium) peu énergétiques (5 MeV) mais fortement ionisants par contact direct.

Note 4. Changement climatique. Quel que soit la direction de ce changement vers le « plus chaud » ou vers le « plus froid », la demande en énergie propre sera identique

La pomme de terre : la longue histoire d’une plante génétiquement modifiée par l’homme

Capture d’écran 2018-01-12 à 13.31.44.png

La pomme de terre est originaire des Andes péruviennes et elle fut consommée et cultivée par les Amérindiens il y a plus de 10000 ans dans les régions constituant aujourd’hui le Pérou, la Bolivie et l’Equateur. Quelques millénaires plus tard la pomme de terre apparut dans des zones climatiques très différentes des hauteurs andines comme dans les plaines du Vénézuela actuel mais également au sud du Chili et de l’Argentine en suivant les migrations de ces Amérindiens qui avaient rapidement reconnu les propriétés alimentaires exceptionnelles de ce tubercule. Durant cette adaptation à des climats différents le capital génétique de la plante (Solanum tuberosum) se modifia progressivement en ce sens que le nombre de chromosomes doubla, passant de 2X à 4X. Ces modifications génétiques et l’apparition progressive de nouveaux cultivars obtenus par sélection et croisements successifs – une modification génétique réalisée sur le long terme – fit qu’aujourd’hui la pomme de terre est la troisième production agricole dédiée à l’alimentation humaine dans le monde.

La pomme de terre est en effet la deuxième culture en terme de richesse protéique après le soja et la première culture si les teneurs en carbohydrates et en protéines sont prises en compte et combinées. De plus la pomme de terre est riche en vitamine C : une seule pomme de terre de 100 g assure 50 % du besoin quotidien en cette vitamine qui est totalement absente dans le riz ou le blé. Les protéines de la pomme de terre offrent de manière équilibré l’ensemble des 20 acides aminés dont l’organisme a besoin contrairement par exemple au maïs dont les protéines présentent un déficit prononcé en lysine et en tryptophane. Enfin au cours de ce long processus de « modification génétique » – car il faut appeler les choses par leur nom – la biosynthèse de glyco-alcaloïdes indésirables fut progressivement éteinte et le métabolisme des sucres (carbohydrates de la fécule) se trouva parallèlement modifié et amplifié sans altération de la teneur en protéines.

Capture d’écran 2018-01-12 à 11.05.08.png

Ce long processus d’évolution génétique de la pomme de terre originaire des plateaux andins et poussant jusqu’à des altitudes de 5000 mètres près de l’équateur a réservé quelques surprises aux biologistes de l’Université de East Lansing dans le Michigan qui ont réalisé cette étude exhaustive (voir le lien). Les variétés « primitives » de la pomme de terre (S. chacoense, S. brevicaule, S. kurtzianum, S. medians et S. berthaultii ainsi que S. candoleanum) étaient adaptées à des alternances jour-nuit d’environ 12h sans grandes variations au cours de l’année. En adaptant la pomme de terre aux latitudes plus extrêmes, au sud du Chili et de l’Argentine puis au nord du continent nord-américain l’expression d’un nombre important de gènes impliqués dans le rythme circadien a été modifiée avec parallèlement une désagrégation de la faculté de la plante à se reproduire sexuellement par floraison tout en étant bénéfique pour la grosseur des tubercules. Il s’agit d’un cas presque unique d’une adaptation génétique aussi profonde à la modification du rythme circadien chez les grandes cultures domestiquées par l’homme au cours des millénaires passés.

Il est également intéressant de noter la diminution, au cours de la sélection, à des teneurs acceptables des alcaloïdes toxiques comme l’alpha-solanine et l’alpha-chaconine dans les tubercules. Ces alcaloïdes étaient normalement présents dans toute la plante et servaient à protéger celle-ci des attaques par les ravageurs comme les insectes, on pense tout de suite au doryphore, qui ont finalement contraint les agriculteurs à utiliser des pesticides artificiels pour protéger la plante mais cette adaptation a rendu la plupart des tubercules propres à la consommation sans plus aucun risque d’intoxication. Il s’agit d’un cas d’adaptation ou plutôt de sélection assez fréquent puisque les ancêtre de la tomate et de l’aubergine, des fruits très proches de la pomme de terre – il s’agit en effet d’autres solanacées – étaient également toxiques … Enfin, pour conclure la revue des découvertes relatives à la génétique de la pomme de terre au cours de cette sélection il s’agit de la modification de la voie métabolique conduisant au tryptophane et à ses dérivés dont en particulier l’acide kynurénique, un anti-oxydant reconnu comme tel mais aussi un neuroprotecteur et un anti-inflammatoire. Cette adaptation ultime datant du XIXe siècle coïncide avec les croisements variés qui furent réalisés pour atténuer la sensibilité de la pomme de terre au Phytophtora infestans qui ravagea les cultures de pomme de terre en Irlande et provoqua la grande famine restée gravée dans les mémoires des Irlandais.

Il reste encore une utilité pour les variétés primitives de cette plante encore présentes dans les plateaux andins pour encore améliorer cette culture d’une importance mondiale considérable car elles ont gardé les gènes ancestraux qui pourraient un jour être à nouveau réintroduits dans la plante en vue de nouvelles améliorations avec les techniques modernes de la biologie moléculaire.

Source et illustrations PNAS : http://www.pnas.org/cgi/doi/10.1073/pnas.1714380114

La guerre civile pour bientôt ?

La guerre civile pour bientôt ?

En France comme en Belgique il existe des zones urbaines de non-droit, des quartiers le plus souvent situés en banlieue des grandes agglomérations mais aussi parfois en pleine ville habités par une population majoritairement issue de l’immigration récente ou ancienne qui a pour rêgle de vie son communautarisme par opposition avec les institutions en place dans ces pays depuis plusieurs siècles. Personne n’en parle, aucun média n’ose publier un article ou un reportage télévisuel sur ces endroits où ni la police, ni les ambulances ni les pompiers ni les taxis n’osent s’aventurer. Et de telles zones de non-droit (no-go en anglais, « ne pas y aller ») existent aussi en Suède, le pays d’accueil d’une multitude d’immigrés (197000 en 2017). La Suède, la démocratie européenne la plus sociale, celle qui ose tout avant tous les autres pays, se trouve confrontée au problème qu’elle a elle-même favorisé.

Pour la première fois depuis la deuxième guerre mondiale le gouvernement suédois s’apprête à distribuer à 4,7 millions de foyers une brochure de « défense totale » car il prévoit une guerre civile imminente. Cette brochure, sorte de manuel de survie, explique comment assurer en cas de conflit civil la nourriture, l’eau, le chauffage ou encore l’hygiène. Selon le Financial Times, non seulement l’armée mais tous les civils doivent se préparer à un conflit de grande ampleur. Le Premier Ministre suédois Stefan Lofven a déclaré ce mercredi 17 janvier que tout allait être mis en oeuvre pour faire cesser la criminalité, les violences et anéantir le pouvoir des gangs, y compris en envoyant l’armée dans ces zones de non-droit. Même le leader du Parti Démocrate Jimmie Akesson a soutenu le Premier Ministre dans cette initiative.

Pour résumer la situation le gouvernement se prépare à une action militaire de grande envergure alors que les media main-stream continuent à affirmer que la Russie est l’instigatrice de cet état de fait ! Mercredi soir une grenade a été lancée contre un poste de police à Malmö et tout est en place maintenant pour un évènement national imminent de grande ampleur.

Source : Zerohedge

Nouvelles du Japon

Capture d’écran 2018-01-17 à 16.20.19.png

 

Je bavardais ce mercredi matin avec mon fils qui réside à Tokyo et je lui ai parlé du naufrage du pétrolier battant pavillon panaméen qui a pris feu et a fini par couler au large du sud de l’archipel nippon. Il n’était tout simplement pas au courant ! Je lui ai donc suggéré de scruter mon blog pour y voir figurer ce jour un article paru sur Le Temps (Genève) et dont voici le contenu (Illustration Le Temps).

L’étrange silence japonais sur la marée noire en mer de Chine

Le naufrage du pétrolier «Sanchi» au large de la Chine menace aussi le Japon. Mais à Tokyo, c’est le mutisme. Parce que l’épave est située dans une zone contestée ?

Silence radio assourdissant à Tokyo mardi après-midi concernant le naufrage d’un pétrolier iranien en mer de Chine orientale, avec une cargaison de près de 140 000 tonnes de pétrole brut considérée comme particulièrement toxique pour la faune et la flore marines. C’est près de deux fois la cargaison du Prestige, qui avait coulé au large de la Galice en 2002.

Le Sanchi, battant pavillon panaméen, a sombré dimanche, plus d’une semaine après une collision avec un chalutier au large de Shanghai. Incendie incontrôlable, dérive sur plus de 150 milles nautiques et explosions – aucun des 32 membres d’équipage n’a pu être secouru.

Les médias d’Etat chinois, dont la chaîne CCTV, ont diffusé des images spectaculaires du navire en perdition – images reprises par les télévisions japonaises, agrémentées d’informations des garde-côtes : le naufrage aurait eu lieu à 315 kilomètres à l’ouest d’Amami-Oshima, principale île de l’archipel qui relie Kyushu à Okinawa, soit «à l’intérieur de la zone économique exclusive du Japon». Mais pas un mot sur les conséquences possibles du désastre, sinon l’envoi par la garde côtière d’une équipe pour examiner «une possible fuite de pétrole brut».

«Le pire scénario»

A Pékin, la chaîne anglophone d’information continue CGTN – nouvel avatar international de CCTV – titrait lundi: «La Chine se précipite pour prévenir un désastre environnemental». Ma Jun, écologiste soutenu par le pouvoir et directeur à l’Institut des questions publiques et environnementales, évoquait «le pire scénario», à savoir la présence dans les soutes du pétrolier de condensats qui, au lieu de former une nappe à la surface, «génèrent sous l’eau un panache toxique d’hydrocarbures invisible depuis la surface». Il était par ailleurs question d’une nappe de fioul recouvrant une zone de 129 km². Quelques heures plus tard, dans la rubrique Opinions de CGTN, un expert annonçait que les opérations de dépollution «pourraient nécessiter des dizaines, voire une centaine, d’années».

Pêche et tourisme menacés

A Tokyo, toujours rien. Aucun communiqué ni annonce officielle. Motus du côté du bureau du premier ministre. Pas d’analyse dans les journaux télévisés du soir. Mardi matin, aucune trace dans les grands titres des principaux quotidiens en japonais. Seul le Japan Times, en anglais, présente l’info en première page avec une dépêche de Reuters à… Pékin.

Et pourtant, les chiffres sont là: 136 000 tonnes d’hydrocarbures hautement inflammables et toxiques, dont une quantité inconnue a peut-être brûlé au cours de la semaine dernière, prisonnières – ou non – d’une épave ravagée par plusieurs explosions. Le tout à 315 kilomètres des côtes d’un archipel dont l’économie dépend principalement de la pêche et du tourisme.

Intérêts gaziers

Comment expliquer un tel silence? Un indice non négligeable réside justement dans les données géographiques – à condition de se donner la peine d’examiner une carte marine et de procéder par recoupement. La zone en question se trouve à proximité d’un champ gazier exploité par la Chine, à l’origine d’un important contentieux territorial entre Pékin et Tokyo.

Symbole de tensions croissantes durant le milieu des années 2000, le gisement de Chunxiao (appellation chinoise)/Shirakaba (équivalent japonais) a depuis été supplanté par les îles Senkaku, administrées par le Japon et considérées comme un des principaux points chauds (hotspots) de la région.

«Personne sur place»

«Les seules images dont nous disposons viennent de la télévision d’Etat chinoise», confie un responsable de l’actualité d’une des principales chaînes de télévision privée. «Nous n’avons personne sur place, pas d’annonce officielle, alors en attendant nous faisons le pied de grue.»

Plus surprenant du côté du gouvernement de Shinzo Abe, connu pour ses prises de position agressives face aux visées territoriales de Pékin, l’absence de tout commentaire semble laisser la main au pouvoir chinois, libre de s’ériger en garant de l’intégrité environnementale – et par extension territoriale – de cette zone particulièrement riche en ressources halieutiques et énergétiques.

Black-out médiatique, phénomène d’autocensure ou simple frilosité, difficile de juger. Mais la menace d’une catastrophe environnementale imminente devrait tôt ou tard forcer les autorités japonaises – et dans leur foulée les médias – à sortir de leur mutisme.