A propos jacqueshenry

Ecrivain.

Le lait en poudre spécial pour nourrissons : un gros business très trouble

Capture d’écran 2019-12-07 à 14.01.48.png

Il y a eu le scandale du lait en poudre pour bébés distribué en Afrique à des prix défiant toute concurrence sous le prétexte d’action humanitaire qui se termina très mal puisque le lait était reconstitué avec de l’eau polluée par des bactéries, c’est-à-dire non traitée. Il y eut des centaines de milliers de victimes. Puis il y eut le lait « enrichi en protéines » chinois, artificiellement enrichi puisque les fabricants ajoutaient de la mélamine qui réagit exactement comme une protéine quand on dose ces dernières par les techniques classiques. Les conséquences furent que des centaines de milliers d’enfants moururent d’insuffisance rénale aigüe.

Aujourd’hui les laits pour nourrissons sont de nouveau dans le collimateur mais pour d’autres raisons tout à fait inattendues, encore que … Alors que les êtres humains sont des mammifères – nul ne peut le nier – l’apparition des formules de lait en poudre pour nourrissons date du début des années 1960 et répondait à une recherche de profits supplémentaires de la part d’une des plus importantes firmes de l’époque spécialisée dans ce domaine : Nestlé. Ce lait en poudre pour bébés libérait les mères de famille de la lourde contrainte consistant à « donner le sein ». Drôle de conception du marketing.

Ce billet n’a pas pour but de ternir l’image de Nestlé mais de mettre en évidence le caractère tendancieux et résolument idéologique de certains universitaires qui n’hésitent pas à confondre leurs convictions avec la science. Il s’agit en l’occurence du Docteur Julie Smith de l’Australian University, spécialiste des aliments pour bébés, dont le lait en poudre formulé. Selon cette « spécialiste » la production de lait en poudre pour bébés contribue dramatiquement au dommage de l’environnement global (sic) : « ces dernières dizaines d’années on a assisté à une véritable explosion des formules déhydratées pour enfants mais il y a le côté destructeur de l’environnement et de la santé des populations qui a été négligé par ce marché nouveau« .

Tout est donc dit en quelques mots : le lait en poudre pour bébés est mauvais pour l’environnement et le climat mais également mauvais pour la santé des enfants. Alors que l’Australie et la Nouvelle-Zélande sont de gros exportateurs de lait en poudre pour bébés vers la Chine, leur principal marché, la situation aggrave donc l’empreinte carbone de ces deux pays.

Quelle solution trouver pour rémédier à ce grave problème – selon Julie Smith – tout simplement supprimer ces laits déhydratés pour bébés puisque nous sommes des mammifères ? C’est la solution préconisée : mesdames jeunes mères de famille allaitez votre enfant pour sauver le climat ! C’est ce qu’a écrit Julie Smith dans un article paru dans le périodique « International Breastfeeding Journal« . Au final on prêche le retour vers la nature pour sauver le climat. Quelle sera la prochaine étape ? C’est clair : ne plus faire d’enfants et … aller vivre dans des cavernes !

Source : 9news.com.au

Brève. Si c’était la NRC qui décidait pour l’ASN elle dirait que les réacteurs de Fessenheim sont bons pour le service jusqu’en 2059 !

Capture d’écran 2019-12-07 à 20.56.53.png

Les USA viennent de franchir une étape dans la lutte contre le réchauffement climatique dans le cas de la centrale électro-nucléaire de Turkey Point. Alors que la France s’apprête à initier le démantèlement de ses plus « vieilles » centrales nucléaires en commençant par la doyenne, la centrale de Fessenheim, les Etats-Unis appréhendent le changement climatique de manière diamétralement opposée, objective et pragmatique. Les deux unités nucléaires du complexe de production d’électricité de Turkey Point situé à une trentaine de kilomètres au sud de Miami comprenant deux unités thermiques classiques et une unité à gaz (illustration) ont été raccordées au réseau en 1972 et 1973. Il s’agit de réacteurs à eau pressurisée (PWR) de technologie Westinghouse strictement identique à celles de la centrale française de Fessenheim avec ses deux réacteurs, raccordés au réseau en 1978, dont une partie alimente l’Allemagne et la Suisse voisines, ce qui rapporte, c’est bon de le noter au passage, quelque 1,2 milliard d’euros à la France (voir à ce sujet l’article de Sébastien Richet sur le site Contrepoint, lien en fin de billet).

La NRC (Nuclear Regulation Commission) est l’équivalent de l’ASN française (autorité de sureté nucléaire) et elle a tout pouvoir, indépendamment du pouvoir politique, pour décider si oui ou non une installation nucléaire civile peut voir son exploitation prolongée. Cet organisme, contrairement aux politiciens, détient l’expertise dans ce domaine et c’est à lui et non au pouvoir politique, pour quelque raison que ce soit, de décider de la prolongation de l’exploitation d’une installation électro-nucléaire. La différence entre la France et les USA est claire : le pouvoir politique américain ne peut pas intervenir dans les décisions de la NRC alors que les écologistes se sont arrogé le droit de décider de la politique énergétique de la France. Pour les écologistes qui pourrissent la tête de l’Etat français la compagnie Electricité de France n’est qu’une entreprise parmi d’autres qui doit se plier à leurs volontés.

La NRC a décidé de prolonger la « durée de vie » des deux réacteurs de Turkey Point jusqu’à 80 ans. C’est-à-dire jusqu’en 2054, après on verra. Comme ceux de Fessenheim ces deux réacteurs sont en parfait état de marche et il n’y a aucune raison d’en arrêter l’exploitation. Les Etats américains comptent leurs sous, en France c’est le contribuable qui paie la facture : il faudra bien un jour éponger le déficit commercial de la France (cf. le TARGET2). Faut-il que Hollande ait succombé aux charmes des représentantes des partis écologistes pour prendre cette décision insensée de fermer la centrale de Fessenheim, que ce soit Corinne Lepage, l’indicible représentante des écolos suisses et allemands, ou encore la Miss Duflot, l’opportuniste numéro 1 du monde politique français qui s’est fait embaucher par Oxfam.

Il est tout à fait incompréhensible que Macron, fin connaisseur des chiffres et des bilans des entreprises, savoir-faire qu’il a acquis chez le banquier d’affaires le plus prestigieux du monde, ne comprenne pas que le pacte électoraliste de Hollande avec les partis écolos devrait tout simplement être dénoncé ainsi que cette transition énergétique écologique et solidaire qui ne veut rien dire pour préserver la santé énergétique de la France, son économie, son industrie et le bien-être de ses citoyens … s’il en est encore temps.

Si c’était la NRC qui décidait pour l’ASN elle dirait que les réacteurs de Fessenheim sont bons pour le service jusqu’en 2059 ( ! ) laissant largement le temps au gouvernement d’aiguiser ses couteaux pour « sauver le climat » puisque le nucléaire est la seule source d’électricité « zéro carbone ». Bien entendu les langues de vipère, et il y en a des charrettées dans le gouvernement français, toutes aussi incompétentes les unes que les autres, diront que c’est sous la pression de Donald Trump, propriétaire de toutes sortes de domaines luxueux en Floride, que l’exploitation de ces deux réacteurs a été prolongée. Pas de chance ! la NRC est, de par son statut, totalement impérméable aux injonctions des politiciens.

La France pourrit par la tête avecc les écolos, ce pays est définitivement foutu pour reprendre les mots d’H16.

Illustration : Florida Power & Light, exploitant de Turkey Point.

https://www.contrepoints.org/2019/10/16/355837-la-fermeture-de-fessenheim-nest-ni-economique-ni-ecologique-mais-politique

Un peptide atypique synthétisé par un Rhizobium : vers un nouvel antibiotique ?

Capture d’écran 2019-11-20 à 18.35.20.png

La très grande majorité des antibiotiques dérive de produits naturels. Ils ont ensuite été modifiés par les chimistes pour les rendre plus efficaces ou pour contourner les résistances des bactéries. L’exemple de la pénicilline, le premier antibiotique découvert en 1935 et commercialisé très rapidement, est significatif. La pénicilline de Fleming n’est plus utilisée et ce ne sont que des dérivés comportant toujours le cycle thiazolidine, c’est à peu près tout ce qui reste de la molécule originelle. Aujourd’hui les laboratoires pharmaceutiques sont confrontés aux graves problèmes de résistance aux antibiotiques et il existe toujours une recherche très active pour trouver de nouveaux produits naturels présentant une activité antibiotique et/ou ayant un mécanisme d’action nouveau.

C’est le cas de certains peptides modifiés lors de leur synthèse par les ribosomes. Pour ceux qui ne sont pas familiers avec la biologie moléculaire toutes les cellules vivantes possèdent une machinerie capable de traduire les informations génétiques codées sur l’ARN messager qui lui-même contient la transcription de l’information contenue dans le gène situé dans l’ADN. L’ARN messager c’est comme un ruban perforé de telex qui transmet les informations à une imprimante et celle-ci traduit les trous du ruban en texte lisible.

Les ribosomes, gigantesques complexes de protéines diverses maintenues dans la bonne conformation par des ARNs particuliers, décodent les informations du ruban – l’ARN – pour synthétiser les protéines. Ces protéines sont constituées d’acides aminés qui sont eux-mêmes acheminés vers cette grosse machine avec des « étiquettes » constituées de petits ARNs appelés ARN de transfert. Normalement la protéine finalement synthétisée est constituée d’amino-acides parmi les 20 d’entre eux connus dans le monde vivant. Certaines bactéries présentent la particularité de posséder des activités enzymatiques spéciales capables de modifier la structure de quelques amino-acides au cours de cette synthèse ribosomale. Comme je vais tenter de l’exposer clairement ci-après l’ingéniosité des bactéries est sans limite.

C’est en cherchant dans la profondeur de la forêt tropicale mexicaine qu’une équipe de biologistes des Universités de Berkeley et de Chicago en collaboration avec l’Institut de Technologie Skolkovo de Moscou a découvert une souche de Rhizobium sur des racines de pois qui se défend contre les attaques bactériennes néfastes. L’étude génétique de cette souche de Rhizobium sp.Pop5 a indiqué la présence d’un amas de gènes codant pour un petit peptide mais aussi pour deux protéines présentant une activité enzymatique très particulière intervenant dans la modification immédiatement postérieure à la synthèse par le ribosome du petit peptide en question. Il s’agit d’une activité cyclisant la cystéine sur elle-même et une autre activité cyclisant soit une thréonine soit une sérine.

Capture d’écran 2019-11-20 à 17.49.08.png

Lorsque la synthèse de ce peptide modifié est terminée celui-ci se replie en forme de pelote et il présente la capacité d’aller obturer le canal par lequel sortent les chaines poly-peptidiques en cours de synthèse depuis la sous-unité 50S du ribosome. Tout semble précisément calculé pour que cette sorte de bouchon figuré en jaune dans la figure ci-dessus interagisse avec un certain type de ribosomes mais pas ceux du Rhizobium concerné. Un autre peptide modifié du même genre, c’est-à-dire contenant dans sa séquence des cycles oxazole et thiazoles, la klebsazolicine, a été décrit et présente la même activité inhibitrice au niveau du ribosome. Mais ce n’était pas un rhizobium qui en était l’auteur, si on peut dire les choses ainsi, mais une Klebsiella pneumoniae sp. ozonae, une souche de Klebsiella parmi tant d’autres, principale responsable des maladies nosocomiales qui répandent la terreur dans les hôpitaux. En quelques sorte cette bactérie pathogène fait place nette pour finir à elle seule le travail de destruction fatale des poumons puisqu’elle se trouve alors sans concurrence.

Globalement c’est la même stratégie adoptée par le Rhizobium sp. Pop5. Les nodules racinaires d’un plan de pois non inoculé (première illustration) avec cette souche mais disposant pour assimiler l’azote atmosphérique, le rôle majeur de cette bactérie symbiotique des légumineuses, disparaissent, attaqués par d’autres bactéries du sol comme on peut le voir clairement sur la première illustration. Il reste beaucoup de travaux à effectuer avant que de tels peptides puissent déboucher sur des antibiotiques efficaces susceptibles d’être utilisés en médecine humaine mais ce genre de molécule constitue déjà un domaine de recherche très actif. Il semble que cette stratégie adoptée par deux bactéries très différente soit plus fréquente qu’on ne l’imagine malgré sa complexité et la recherche systématique des gènes codant pour les « cyclases » mentionnées dans ces travaux pourra peut-être conduire à la découverte d’un ou plusieurs peptides de ce type, plus simples, qui puissent faire l’objet de synthèses économiquement abordables. Ce n’est pas encore joué.

Capture d’écran 2019-11-20 à 17.12.43.png

Capture d’écran 2019-10-25 à 12.41.18.png

Capture d’écran 2019-10-25 à 12.42.10.png

Structure du peptide, abbréviations : A =alanine, T=threonine, C=cystéine (donnent un cycle thiazole en positions 3, 6 et 12), R=arginine, D=acide aspartique, S= sérine (donnent un cycle oxazole en positions 9, 15, 18, 21 et 24), G=glycine, K=lysine, I=isoleucine

Source : https://doi.org/10.1038/s41467-019-12589-5

Être climato-réaliste est une vraie mission (épisode 4). Température et CO2 : zoom sur les derniers milliers d’années.

Les données satellitaires et celles relevées par les stations météo à terre en ce qui concerne l’évolution des températures de l’atmosphère terrestre et au sol font l’objet de tellement de manipulations, d’ajustements sans prétexte, de « lissages » et corrections variées dans la plupart des cas injustifiés, ou plutôt réalisés pour servir la cause de la propagande de l’IPCC, que pour un climato-réaliste comme votre serviteur et pour n’importe quel scientifique digne de cette qualification, il n’y a que les carottages glaciaires pour fournir des données fiables, brutes et non trafiquées par de soi-disant experts sans qualifications catapultés comme membres éminents de « panels », de groupes ou de comités. Un vrai scientifique comme je prétends l’avoir été durant ma carrière de chimiste des protéines imagine des expérimentations parfois complexes à mettre en oeuvre pour tenter de prouver une hypothèse de travail. Cette hypothèse peut s’avérer fausse si l’expérience ne peut pas la confirmer. Mais pour la confirmer une seule expérience avec un seul ensemble de résultats n’est pas suffisante. Celle-ci doit être répétée au moins trois fois pour être alors certain qu’il ne s’agit plus de hasard. Ce facteur hasard étant éliminé il faut, quand un scientifique publie ses travaux – le seul moyen dont il dispose pour prouver qu’il travaille et qu’il puisse obtenir des financements pour ses travaux futurs -, que ses expérimentations puissent être reproduites par n’importe quel autre spécialiste, dans n’importe quel autre pays. Pour atteindre ce but, requis pour tout scientifique, il faut donc décrire dans ses moindres détails le protocole expérimental utilisé.

Depuis une vingtaine d’années l’IPCC publie dans ses rapports des modèles d’évolution future du climat qui varient sans cesse. Ces fonctionnaires onusiens seraient-ils de moins en moins certains de la validité de leurs conjectures ? On peut dire ça !

Dans un précédent billet de ce blog je décrivais la réapparition de la courbe en crosse de hockey, cette fameuse « fake-news » de Michael Mann que je croyais comme beaucoup de climato-réalistes jetée à tout jamais dans les poubelles de la science. Je serais curieux de connaître le protocole de calcul utilisé par les 19 signataires de l’article paru dans la revue Nature pour obtenir une telle courbe de variation des températures au cours des 2000 dernières années et quelles sont les sources exactes des données utilisées. Je ne suis pas un « modélisateur » et chaque fois que j’ai été amené à étudier le fonctionnement d’un enzyme il fallait faire appel à des calculs algébriques simples pour interpréter les résultats expérimentaux et déterminer les constantes cinétiques de l’enzyme. Tout le travail était strictement basé sur les données expérimentales documentées dans le détail.

Capture d’écran 2019-09-25 à 20.24.15.png

Pour ce qui concerne l’évolution des températures terrestres des quelques milliers d’années passées, ce qui fait l’objet de ce billet, deux projets ont été menés à leur terme : le projet GISP2 (Greenland Ice Sheet Project) qui a permis de retirer un carottage sur une profondeur de 3053 mètres et les projets, européen EPICA et russe Vostok, dans l’Antarctique, jusqu’à 3300 mètres de profondeur utilisable pour des études détaillées bien que le forage Vostok ait atteint une profondeur de 3770 mètres. De nombreuses expérimentations ont été nécessaires pour être absolument certain que la datation des carottes retirées était en harmonie que l’on ait à se reporter aux sondages groenlandais ou antarctiques. Contrairement à ce qui se passe d’une manière générale pour les relevés de température au sol ou à l’aide de satellites, relevés confiés à des organismes tels que la NASA ou la NOAA, l’étude des carottes glaciaires a été confiée à des physiciens répartis dans une multitude de laboratoires et non pas à des climatologues de pacotille. Pour reconstruire l’évolution des températures, la teneur en divers gaz atmosphériques ainsi que l’activité solaire, l’approche a fait essentiellement appel à des études isotopiques, oxygènes -16 et -18, carbones -12 et -13, béryllium-10, etc …

Les résultats illustrés par la figure ci-dessus sont formels : il n’y a pas de corrélation entre le refroidissement général continu depuis la fin du Dryas récent (la « grande déglaciation ») et la teneur en CO2 atmosphérique. Ce serait plutôt l’inverse ! L’influence du CO2 sur l’évolution des températures à la surface de la Terre étant éliminée et l’activité humaine étant il y a encore 150 ans négligeable si on reprend les hypothèses de l’IPCC relatives à l’influence sur le climat des gaz émis par cette activité humaine mais aussi celle des aérosols, alors la question cruciale qui émerge naturellement est la cause de ces variations climatiques discrètes en comparaison des fluctuations considérables au cours du Dryas. Il ne reste plus que deux candidats pour expliquer ces variations du climat : l’activité solaire et les cycles océaniques qui peuvent s’étaler sur plusieurs milliers d’années.

Les géophysiciens commencent à se faire un idée de plus en plus précise de ce qui se passe à l’intérieur du Soleil mais la relation entre les variations de l’activité solaire et les variations du climat restent à préciser, si elles peuvent l’être un jour, car le système océans-atmosphère-Soleil est d’une complexité telle que de simples équations mathématiques sont inopérantes pour l’évaluer, on entre en effet dans le domaine des phénomènes chaotiques.

Mais revenons brièvement pour conclure ce billet à ce graphique décrivant la variation de la température à la surface du centre de l’immense glacier du Groenland. Les trois derniers optima climatiques retrouvés par les recherches archéologiques puis les chroniques historiques ont été parfaitement bien retrouvés. Certains esprits chagrins diront que le Groenland n’est pas le centre du monde et qu’il n’y a pas lieu de s’attarder sur ce GRIP2. Pourtant on ne peut que remarquer que ce supposé réchauffement catastrophique contemporain dont on nous martèle les tympans n’est qu’un petit soubresaut totalement négligeable en regard de l’optimum climatique médiéval. Il n’aura duré qu’à peine 50 ans, de la fin des années 1930 à la fin des années 1990 avec une amplitude inférieure à un demi-degré alors que celle de l’optimum médiéval était de plus de 1,5 degrés.

Prochain billet : zoom final sur l’évolution du climat.

Tokyo : ville de contrastes (épisode 1)

DSCF6876.JPG

L’immense ville de Tokyo, environ 14 millions, d’habitants fait partie avec une dizaine d’autres villes de la plus grande conurbation du monde avec près de 39 millions d’habitants autour de la baie éponyme. C’est une ville sans unité architecturale aucune, une sorte de patchwork hétéroclite de quartiers d’affaire d’avant-garde et de zones résidentielles. En quelques dizaines de mètres on passe d’un univers à un autre en particulier dans le « centre » de Tokyo. Ce centre a une superficie sensiblement identique à Paris « intra-muros ». Il est délimité par la ligne de chemin de fer en boucle Yamanote d’une longueur égale à celle du périphérique parisien comportant 30 stations pratiquement (il y en avait 29 il y a un an mais une extension de la gare de Shinagawa en a fait le trentième) toutes reliées à des correspondances ferroviaires aériennes ou des lignes de métro souterraines. De plus toutes les stations de train y compris dans les quartiers périphériques de la ville hébergent des gares routières desservant judicieusement les quartiers alentour. L’ensemble de tous ces transports en commun est unique au monde de par sa densité, ses interconnections, sa ponctualité et sa propreté. Dans les mailles de ce lacis très dense de transports en commun se trouvent donc des « quartiers » présentant tous leur particularisme dont l’origine pourrait être expliquée par un historien érudit spécialisé de cette ville.

Il y a des quartiers qui concentrent les magasins où on peut acheter de la vaisselle et des équipements pour la cuisine, d’autres où il y a une multitude d’échoppes d’instruments de musique, d’autres entièrement consacrés à l’électronique ou encore ceux qui regorgent d’articles en cuir. Il y a quelques jours déjà je suis allé me promener en famille dans le quartier d’Ochanomizu à l’intérieur de la voie circulaire Yamanote, cette station faisant partie de la Yamanote. Il y a aux alentours de cette station de train le « Tokyo Dome », stade de base-ball couvert, un sanctuaire shinto d’un extrême dépouillement, une cathédrale catholique, une église orthodoxe monumentale et plusieurs universités dont la prestigieuse Meiji University. Cette université privée n’a pas de « campus » mais c’est seulement un grand édifice d’une trentaine d’étages assez austère de par son architecture. À quelques pas de là on trouve des gargotes étonnantes (illustrations) dans des petites rues étroites probablement très fréquentées le soir par la faune estudiantine. À Tokyo, trouver un endroit pour se restaurer n’est pas vraiment un problème : il y a plus de 170000 restaurants et la plus forte densité de restaurants « étoilés Michelin » : 224 ! Vous avez bien lu. Voici deux clichés donnant une idée précise des côtés inattendus de cette ville : un restaurant où on mange du poisson et tout près un bar à saké …

DSCF6877.JPG

DSCF6880.JPG

Première illustration : Meiji University

Qui gouverne le monde ? Explications d’Hugo Salinas-Price

800px-Hugo_Salinas_Price_con_la_moneda_de_plata_libertad.jpg

Par souci de brièveté, et parce qu’il ne s’agit pas d’un article scientifique, mais de l’examen d’un thème qui doit être traité avec le moins de mots possible, il est nécessaire de procéder à des généralisations radicales.

Depuis l’aube de l’histoire jusqu’à des temps relativement récents, l’humanité était gouvernée par des rois dont la volonté était la loi. Les rois étaient soutenus par des prêtres qui affirmaient que le pouvoir royal était institué divinement. Ainsi, les rois étaient régulièrement considérés par leurs sujets comme des demi-dieux. L’un des droits exclusifs dont les rois ont joui au cours de l’histoire est la création de monnaie. Les historiens attribuent à Crésus, roi de Lydie (une région de l’actuelle Turquie) la frappe des premières pièces d’or, qu’il a utilisées pour inciter ses soldats à se battre. C’était aux alentours de 500 avant l’ère présente. L’or, et non l’argent, a été la première monnaie utilisée par l’humanité, car l’or était trouvé abondamment sous une forme presque pure dans certains lits de rivières, alors que l’argent devait être obtenu en transformant des minerais argentifères, activité qui a été postérieure à celle de l’utilisation de l’or. Aujourd’hui, de petites quantités d’or peuvent encore être trouvées dans les lits des rivières.

Dans l’Antiquité, la production d’or et d’argent était considérée comme une activité sacrée exercée par des prêtres. Par exemple, Jules César (100 – 44 avant JC) a obtenu son premier poste politique en tant que Pontifex Maximus, c’est-à-dire «Grand prêtre» chargé de la Monnaie romaine.

Le droit divin des rois de gouverner était incontesté jusqu’à la fin du Moyen-Âge en Europe. Les rois de France étaient devenus rois depuis des siècles par la cérémonie d’onction avec un baume sacré, qui leur était appliquée lors d’une cérémonie solennelle à la cathédrale de Reims. L’introduction de l’invention de l’imprimerie en Europe par Gutenberg en 1452 a été à l’origine de la lecture massive de livres, qui étaient auparavant le privilège du sacerdoce et des riches, qui ont pu acheter un petit nombre de livres manuscrits et très coûteux. L’une des conséquences de cette lecture des livres a été que l’autorité de l’Église catholique romaine a commencé à être mise en cause par certains penseurs, notamment par Martin Luther. Luther se déclara finalement tout à fait comme l’ennemi de l’Église catholique, ce qui conduisit à la création du protestantisme. La conséquence pour l’Europe a été une série de guerres sanglantes de religion.

Puisque c’était l’Église catholique qui « consacrait » les rois de l’Europe avec l’huile sainte et leur conférait le droit divin de régner, le schisme du christianisme a eu pour effet d’affaiblir le respect des populations d’Europe pour leurs rois. À tous les âges précédents, sous les «bons» rois et les «mauvais» rois, Leurs Altesses ne considéraient jamais comme sa mission de gouverner afin que la pauvreté et la misère soient éliminées de la vie humaine. C’est ainsi que le fameux Sir Thomas More, en désaccord avec son monarque Henri VIII, écrivit un livre, « Utopia », dans lequel il parlait d’un pays où l’or était éliminé en tant que monnaie et utilisé pour fabriquer des « pots de chambre ». Dans » Utopia « la joie et la prospérité universelles régnaient en maîtres. Cette fiction de Thomas More devenait ainsi l’une des premières remises en question de l’utilité de la monnaie.

Un exemple notable de l’effet du protestantisme sur le règne des rois est la révolution puritaine en Angleterre. Les puritains dirigés par Oliver Cromwell ont décapité leur roi, Charles Ier, en 1649. Entre autres raisons, il était méprisé par les puritains parce qu’il était trop conservateur à l’égard de la «prérogative royale» et les puritains voulaient quelque chose de nouveau, une «conscience sociale» et de meilleures institutions pour la promotion d’une société meilleure. Avec le temps, l’âge de la raison du XVIIIe siècle est apparu. Les grands penseurs de l’Europe – et des rebelles américains dans les colonies royales anglaises d’Amérique du Nord – ont examiné l’institution de la royauté et ont conclu que la raison devait être primordiale dans les affaires politiques et que les rois n’avaient aucun droit divin. C’était un point de vue rationnel.

La conséquence de cette «illumination» créée par le siècle de la raison, dit aussi « des lumières » a été la Révolution française de 1789, au cours de laquelle le roi de France Louis XVI et sa reine Marie-Antoinette ont été soigneusement décapités au moyen de la guillotine récemment inventée.

En dépit de la Révolution française, certaines parties de l’Europe ont continué à être gouvernées par des rois jusqu’en 1914. Cependant, la nouvelle façon de les considérer a progressivement réduit l’importance et le pouvoir des monarques restants de l’Europe. Ils n’étaient plus considérés avec la crainte indiscutable des populations qu’ils gouvernaient. La pensée des intellectuels de la Révolution française avait changé les choses pour toujours : les rois n’étaient plus des créatures semi-divines.

Il est important de comprendre la nature de la transformation politique survenue et que peu de penseurs ont peut-être remarquée : la Révolution française a changé la perception de l’origine de l’autorité. Dans toute l’histoire et jusqu’à la Révolution française de 1789, l’autorité était reconnue comme «originaire d’en haut», c’est-à-dire du souverain nommé par Dieu, qui gouvernait de droit divin et dont le moindre mot était « la » loi qui devait être respectée par les gens « en dessous » de lui. L’une des fonctions du souverain était de déterminer et de créer le système monétaire que son peuple devait utiliser. Il n’était nullement en son pouvoir de créer une situation dans laquelle la pauvreté et la misère devaient être éliminées parmi ses sujets, le peuple « d’en bas ».

Les penseurs de la Révolution française ont renversé cet ancien système royal en déclarant que l’Autorité ne pouvait provenir d’aucun être humain considéré comme un roi. Ils ont maintenu – et c’est une position qui subsiste encore aujourd’hui – que « l’autorité vient d’en bas », c’est-à-dire du peuple, qui institue des gouvernements afin d’améliorer les conditions sociales et d’éliminer progressivement la souffrance et le désir parmi eux, le « peuple d’en bas ». C’est l’acceptation de l’autorité comme émanant d’en bas qui valide toutes les lois du monde aujourd’hui, par le décompte des voix. Le pouvoir de légiférer émane de la majorité des voix des électeurs inscrits, favorisant les candidats aux élections.

«L’autorité provenant d’en bas» est le principe de la démocratie et, aujourd’hui, pour qu’une nation soit acceptée par les autres nations du monde, elle doit être une démocratie. Il ne reste que quelques rois dans le monde, mais ce ne sont guère que des têtes bien-aimées, sans aucun pouvoir. Il y a peut-être aussi quelques dictateurs, mais ils se retrouvent vite ostracisés et ont tendance à avoir une vie courte.

Tous les gouvernements, quelles que soient les conséquences de leurs actions, sont aujourd’hui fondés sur le principe suivant: «L’autorité provient d’en bas». Telle est la situation du monde d’aujourd’hui, et c’est l’héritage que nous ont laissé les penseurs du 18ème siècle.

Une conséquence énorme de cet héritage a été peu notée, voire pas du tout :

Les rois régnaient de manière absolue, par droit divin. et leur règne ne cessait qu’avec leur mort. D’autre part, les gouvernements élus vont et viennent, car ils répondent aux caprices des électeurs. Les présidents entrent en fonction et quittent leurs fonctions après la fin de leur mandat. La présence des hommes et des femmes au Congrès est transitoire : les politiques validées par un Congrès sont régulièrement rejetées par le Congrès suivant. De par leur nature même, les gouvernements du monde entier sont aujourd’hui composés de personnes élues dont la présence est transitoire et les décisions politiques des congrès ne peuvent en aucun cas aboutir à une législation cohérente et permanente.

«La nature a horreur du vide» est un principe de physique qui s’applique également en politique, car le vide de l’autorité qui caractérise la démocratie est comblé par une autre puissance, une puissance non élue dont la présence est mondiale et dont les intérêts sont permanents. Les penseurs éminemment raisonnables et bien intentionnés de «l’âge de la raison» qui ont éliminé les rois, ne se sont apparemment pas souciés de l’existence et des intérêts permanents et pernicieux de cette puissance, la puissance qui régit notre monde aujourd’hui.

Quelle est cette mystérieuse puissance qui annule en silence tous les congrès élus du monde et veille à ce qu’aucune législation ne puisse mettre en péril ses propres intérêts? Ce pouvoir est dévolu aux banques internationales du monde. Les présidents vont et viennent et sont oubliés, les législateurs vont et viennent et sont oubliés, les ministres vont et viennent et sont oubliés, mais les banques internationales restent, leur personnel change avec le temps, mais pas leurs intérêts. Toutes les institutions ont tendance à changer pour s’adapter aux changements dans les institutions sociales de l’époque. Mais pas les banques internationales.

Grâce à l’élimination des rois et à leur droit royal de créer de l’argent, et à leur substitution par des démocraties faibles et vacillantes à travers le monde, les banques internationales se frayèrent un chemin vers la souveraineté réelle aux XIXe et XXe siècles. Ce sont les banques internationales qui gouvernent aujourd’hui notre monde. Les gouvernements démocratiques ne sont rien de plus que des institutions décoratives pour masquer la véritable autorité qui réside dans les banques internationales. Fidèles à leur fonction de souverains, de fait, de notre monde, les banques internationales décident quel est l’argent que le monde utilisera, et elles le publient elles-mêmes à leur guise, pour conserver et accroître leur pouvoir. Bien sûr, elles font tout cela dans le but évident d’améliorer les conditions économiques des multitudes.

L’histoire raconte qu’il y a eu dans le passé de « mauvais » rois et de « bons » rois – ceux qui veillaient au bien-être de leurs sujets, dans la mesure de leurs moyens. Mais les banques internationales sont des monstres impersonnels, en ce sens qu’elles n’ont aucun respect pour les intérêts de l’humanité : elles ne se soucient que de leur propre intérêt, qui est de conserver le plus de pouvoir possible.

L’argent réel – en or et / ou en argent – s’est révélé au fil du temps comme un obstacle au pouvoir illimité dont jouissent les banques internationales. Elles ont donc éliminé l’argent réel et se sont endettées dans le monde entier avec de la fausse monnaie. À tel point que la dette mondiale risque de s’effondrer – tout en affirmant que leurs programmes inflationnistes sont essentiels au «progrès et au développement économique». La cupidité sans restriction des banques internationales sera leur perte et laissera notre monde totalement prostré et appauvri.

Notes. Hugo Salinas-Price, né en 1932, est un affairiste mexicain qui a créé la chaine de vente de détail d’appareillages électriques et électroniques Elektra. Il est, outre un grand philanthrope dans son pays, un analyste financier très écouté au Mexique et également aux USA (illustration). Article de Salinas-Price repris par Paul Craig Roberts sur son blog.

Retour sur le principe de précaution

Capture d’écran 2019-12-01 à 17.28.39.png

Quelques soient leurs bonnes intentions, les régulations hyper-protectrices peuvent devenir mortelles. En biaisant les politiques publiques les rendant hyper-tatillonnes vis-à-vis des innovations technologiques, les lois et les régulations peuvent rendre la vie beaucoup plus dangereuse. Une étude récente du Bureau National de Recherche Économique (NBER : https://www.nber.org/papers/w26395) a trouvé exactement ce qui suit. Les auteurs ont examiné les effets non prévus d’invocation du principe de précaution après l’accident nucléaire de Fukushima-Daiichi qui eut lieu au Japon le 11 mars 2011 après un tsunami géant. Ils ont mis en évidence que la décision du gouvernement japonais d’abandonner totalement l’énergie nucléaire à la suite de cet accident a provoqué de nombreux décès en raison de l’augmentation du coût de l’énergie électrique combinée aux froidures de l’hiver suivant cet accident. De plus cette décision eut des implications sérieuses sur l’environnement. En bref, l’application stricte du principe de précaution peut être très coûteux en terme de vies humaines (cf. un précédent billet sur ce blog).

Combien de décès sont provoqués par les régulations excessives.

Le principe de précaution se réfère à l’idée que les politiques publiques doivent limiter les innovations jusqu’au jour où leurs inventeurs peuvent prouver incontestablement que celles-ci ne provoqueront jamais de dangers potentiels de quelque nature que ce soit. S’il persiste des incertitudes au sujet de risques futurs le principe de précaution exclut toute étude poussée d’utilisation de ces innovations en régulant très étroitement voire en rendant impossible dans la pratique tout programme d’essais et d’erreurs pouvant valider le caractère sécurisé de l’invention. En vérité le principe de précaution, par principe, est basé sur le fait que les risques futurs existent toujours. Pire encore, l’application rigide du principe de précaution interdit toute expérimentation pouvant mettre en évidence de nouvelles et meilleures procédures rendant ces innovations encore plus sécurisées.

En résumé : « en vivant en permanence dans la peur du pire scénario – et donc en mettant en oeuvre des politiques publiques avec cet objectif – cette attitude exclut de facto tout scénario optimal. Quand ces politiques publiques sont basées sur ce type de raisonnement, le principe de précaution limite très sérieusement tout progrès technique, toute économie entrepreneuriale, toute adaptation sociale et toute prospérité sur le long terme« .

Le cas du riz doré.

Il y a beaucoup d’exemples qui montrent que le principe de précaution peut miner la santé publique ou pire encore provoquer des morts. Le cas du riz doré en est un exemple incontestable (cf. plusieurs billets sur ce blog à ce sujet). Il s’agit d’un riz génétiquement modifié pour être capable de produire du beta-carotène, précurseur de la vitamine A et il est la démonstration de l’effet adverse du principe de précaution. Au cours des années 2000 des équipes de biologistes commencèrent à s’intéresser à ce riz pour le destiner aux enfants des pays en voie de développement où sévit la déficience en vitamine A, la cause prépondérante de cécité et de mort prématurée de millions d’enfants et de femmes enceintes. Malheureusement la résistance aux plantes génétiquement modifiées affichée par certaines organisations non gouvernementales (inutile de les citer …) rapprochées des fonctionnaires en charge de la régulation outre mesure et sans justification scientifique relative aux plantes génétiquement modifiées faillit réduire à néant ce projet. Par voie de conséquence il aura fallu 20 années supplémentaires pour que – enfin – cette équipe ce chercheurs de haut vol finalise son projet strictement humanitaire alors que les régulateurs, de par leurs hésitations conformes au fameux principe de précaution, travaillaient dans le sens contraire, seulement motivés par cette peur irrationnelle des plantes génétiquement modifiées. Ces régulateurs, pourtant supposés protéger la vie des êtres humains, sont arrivés au résultat contraire qui est une véritable tragédie humanitaire.

Pour ces bureaucrates, en vertu du principe de précaution, le riz doré était considéré comme une erreur technologique jusqu’à ce que le contraire soit prouvé sans équivoque. Drôle de conception de la rationalité …

Les analystes du risque, comme par exemple les actuaires pour ne citer que ceux-ci, considèrent que le principe de précaution manque totalement de logique basique et est littéralement incohérent. Par essence c’est un « non-principe » parce qu’il ne contient pas clairement dans sa définition permettant de se faire une idée claire de laquelle on peut juger de l’ampleur des risques encourus lors d’un contrôle préventif de nouvelles technologies, quelles que soient leur nature. Dès lors le principe de précaution est enraciné dans un autre principe ou du moins une préférence qui est implicitement un immobilisme, c’est-à-dire une préservation du statut quo. Ne rien faire face à l’incertitude semble alors le meilleur choix mais ce choix, sur le long terme, conduit à un monde plus incertain encore.

Le spécialiste de la politique Aaron Wildavsky a consacré toute sa carrière à démontrer que tous les efforts fournis pour créer une société sans risques technologiques conduisaient au contraire à une société extrêmement risquée. Dans son livre très important « Searching for Safety » publié en 1988, Wildavsky alertait sur les risques du raisonnement conduisant à adopter l’attitude des « essais sans erreur » et le comparait à l’attitude plus logique de l’ « essai avec erreur » qui est le fondement de la recherche scientifique et donc directement transposable à la recherche de l’évaluation du risque. Il poursuivait en indiquant que la sagesse acquise pendant des milliers d’années était justement basée sur les essais avec erreur. Cette attitude permet d’apprendre comment se comporter et vivre avec plus de confort et de richesse en tant qu’individus faisant partie d’une société qui a maîtrisé l’incertitude bien qu’ayant été confrontée à des échecs éventuels.

« L’implication directe de l’ « essai sans erreur » est évidente : si on ne peut rien entreprendre sans savoir d’abord comment les choses tourneront, alors vous ne pouvez rien entreprendre du tout. Une conséquence indirecte de l’essai sans erreur est que si on entreprend quelque chose de nouveau mais que cette décision est coûteuse il y aura automatiquement moins de prises d’initiatives susceptibles d’améliorer les pratiques passées. Ce manque de changement et d’amélioration de ces pratiques passées est par essence dangereux car il réduit toutes les chances de réduction des risques existants. Donc ces risques perdureront si on refuse d’en trouver des solutions pour les réduire en choisissant l’avantageuse attitude des essais avec erreur répétés aussi longtemps qu’il est nécessaire« .

Là réside la plus inconséquente nature du principe de précaution. Si ce principe est pris trop à la lettre il rend les conditions de vie du monde entier plus incertaines. Il peut nous faire souffrir et éventuellement conduire à une mort prématurée. Par conséquent il est du devoir des adeptes du principe de précaution de démontrer pourquoi cesser toute expérimentation est bénéfique et en apporter les preuves mais pour ces personnes une telle démarche est futile donc inutile.

Dire non a un coût caché.

Plus généralement, les deux cas évoqués ci-dessus illustrent encore une fois la simple vérité selon laquelle il existe des compromis et des incitations politiques. La réglementation n’est pas une baguette magique qui accorde instantanément à la société des autorisations gratuites. Chaque action politique a des coûts potentiels, dont beaucoup sont difficiles à prévoir ou même à estimer par la suite. Le principe de précaution est statique et à courte vue, il vise uniquement à atténuer certains risques directs évidents. En mettant fin à un résultat potentiellement risqué, les décideurs peuvent garantir aux citoyens qu’aucun danger potentiel ne peut se produire à nouveau en raison de cette activité particulière.

Mais parfois, le plus grand risque de tous est l’inaction. Le progrès et la prospérité sont impossibles sans une expérimentation constante d’essais et d’erreurs et une prise de risque certaine. Sans risque, il ne peut y avoir de récompense. Dans un nouveau livre, le scientifique Martin Rees qualifie ce truisme du principe de précaution de «coût caché de dire non».

Ce coût caché de la réglementation préventive sur le riz doré a entraîné une «tragédie moderne» pour les innombrables personnes qui ont perdu la vue ou en sont mortes. Ce coût caché était également très lourd pour les citoyens japonais après l’incident de Fukushima. Si la réglementation interdit un type de production d’énergie, il faut le remplacer par un autre pour maintenir le niveau de vie. La décision du pays d’interdire l’énergie nucléaire a apparemment entraîné des morts inutiles après le recours à d’autres sources d’énergies dont le charbon et le gaz naturel.

Pour être clair, l’incident de Fukushima a été un horrible accident qui a eu de nombreux autres coûts. Plus de 100 000 résidents ont été évacués des communautés environnantes de l’usine en raison de craintes de contamination. Mais on ne sait toujours pas combien de dommages ont été causés par les rejets de matières radioactives par rapport au pouvoir destructeur du tsunami lui-même (ou à la réaction réglementaire qui en a résulté). L’Agence internationale de l’énergie atomique (IAEA) gère un site dédié aux mises à jour en cours sur l’état de Fukushima Daiichi et note que des efforts de nettoyage sont en cours. En ce qui concerne la surveillance de la zone maritime, l’AIEA a déclaré que les «niveaux de radioactivité mesurés par le Japon dans le milieu marin étaient bas et relativement stables». «La situation en matière de sécurité des approvisionnements alimentaires, de la production halieutique et agricole reste stable», bien.

L’exposition aux rayonnements peut également poser des problèmes de soins de santé à long terme, même si cela n’a pas encore été prouvé. Fait important, cependant, des vies ont été perdues lors de l’évacuation de la zone, en particulier parmi les personnes âgées. Les rapports officiels de l’agence de reconstruction du gouvernement japonais ont répertorié plus de 1600 décès «indirects» imputables au stress et à d’autres maladies pendant la phase d’évacuation, soit infiniment plus que ceux directement imputables à la catastrophe par irradiation directe puisqu’aucun décès n’a été constaté sur le site lui-même.

L’analyse du risque est complexe mais essentielle.

La nature dynamique de tels compromis en matière de réglementation est ce qui rend l’analyse coûts-avantages difficile mais essentielle. Les décideurs doivent faire un meilleur travail en essayant de modéliser les coûts des décisions réglementaires, en particulier celles qui impliquent des contrôles de précaution généraux, précisément parce que les coûts des erreurs peuvent être si importants. Un document de travail publié en 2017 par le Centre Mercatus intitulé : «Comment les réglementations peuvent augmenter le risque de mortalité», par James Broughel et W. Kip Viscusi (lien), a révélé que des réglementations coûtant plus de 99,3 millions de dollars par vie sauvée augmenteraient le risque de mortalité. Un seuil d’environ 100 millions de dollars en coût de la vie sauvée est celui coût-efficacité au-delà duquel la réglementation permettant de sauver des vies sera contre-productive – où les règles sont susceptibles de causer plus de décès que prévu, au lieu d’en prévenir. En d’autres termes, la réglementation ponctuelle peut devenir si coûteuse qu’elle fait plus de mal que de bien. Lorsque nous trouvons des règles qui imposent des coûts supérieurs à ce seuil, nous devrions rechercher des solutions alternatives qui seront plus économiques et enrichissantes.

Globalement, il est impossible de savoir combien de vies ont été perdues du fait de l’application du principe de précaution depuis 1996 (voir note en fin de billet). Il y a trop de scénarios réglementaires et d’effets dynamiques à modéliser. Mais lorsque certains critiques décrient les efforts pour estimer les coûts potentiels associés aux réglementations préventives, ou insistent sur le fait que tout coût en vaut la peine, alors nous devons leur rappeler que, même s’il est difficile de modéliser les compromis entre risque et avenir incertain, nous devons surtout essayer de s’assurer que la réglementation en vaut la peine. Nous vivons dans un monde de ressources limitées et de choix difficiles.

Les coûts d’opportunité indirects comptent beaucoup.

 

De manière générale, cependant, il n’est presque jamais avisé d’exclure complètement les types d’innovation importants qui pourraient offrir à la société des avantages importants difficilement prévisibles. Dans le cas de l’énergie nucléaire, toutefois, les avantages étaient assez évidents dès le début, mais de nombreux pays ont quand même choisi de contrôler étroitement, de freiner, voire d’interdire son développement. Aux États-Unis, les propos relatifs à l’énergie nucléaire ont toujours été entachées de pires scénarios, en particulier après l’incident de Three Mile Island en 1979. Bien que cet incident n’ai entraîné aucune mort, il a fortement réduit l’énergie nucléaire en tant que source majeure d’énergie aux États-Unis. Depuis lors, peu de nouvelles centrales nucléaires ont été construites et mises en ligne aux États-Unis et seulement deux réacteurs sont en construction (lien). Cette tendance s’est encore aggravée après l’accident japonais, évènement qui a provoqué un durcissement des exigences réglementaires (lien). Les querelles politiques sur l’élimination des déchets nucléaires retardent également les progrès.

Mais les coûts de ces décisions politiques deviennent plus évidents aujourd’hui alors que nous sommes confrontés à des questions sur la manière de lutter contre le changement climatique et de réduire les émissions de carbone. Dans un article du Wall Street Journal paru au début de l’année 2019, Joshua S. Goldstein et Staffan A. Qvist affirmaient que seule l’énergie nucléaire peut sauver la planète et qu’il s’agissait de la seule énergie disponible pour remplacer les combustibles fossiles rapidement « puisqu’il y a une urgence climatique« . Les préoccupations concernant les catastrophes et la gestion des déchets persistent, même si, objectivement, le nucléaire a enregistré un bilan de sécurité remarquable. Les problèmes d’élimination des déchets sont également surestimés. « La consommation d’électricité à partir d’énergie nucléaire générée pour satisfaire la consommation de chaque Américain au cours de sa vie entière produirait une quantité de déchets à longue et courtes durées de vie, tous déchets confondus, qui rentrerait dans une canette de soda« , notaient ces auteurs. C’est certainement un défi que nous pouvons relever face à l’empreinte carbone massive que nous produisons tous actuellement.

Cette étude de cas sur la manière dont le principe de précaution a freiné l’innovation dans le domaine de l’énergie nucléaire est instructive à plusieurs égards. Premièrement, comme le suggèrent la nouvelle étude du NBER et d’autres recherches, le principe de précaution a eu des coûts directs considérablement négatifs, sous la forme d’une augmentation des coûts de l’électricité ainsi que d’une augmentation des émissions de carbone, du fait de la dépendance continue à l’énergie fossile malgré le fait que des énergies renouvelables – mais intermittentes – ont été mises en place. Deuxièmement, il y a probablement eu de nombreux coûts indirects sous la forme d’innovations abandonnées. Nous ne savons tout simplement pas à quel point les centrales nucléaires seraient meilleures si l’expérimentation de nouvelles technologies avaient été autorisées au cours des quatre dernières décennies. Le rêve de produire une énergie électrique «trop bon marché pour être difficilement mesurable» via la production nucléaire ne sera peut-être plus un rêve ni une utopie dans quelques décennies. Au minimum, nous aurions probablement eu plus de réacteurs à base de thorium connectées au réseau électrique qui auraient permis par retour d’expérience d’améliorer considérablement l’efficacité et la sécurité.

Conclusion.

Cela souligne la nécessité d’une plus grande humilité dans l’élaboration des politiques. Nous ne possédons pas de boules de cristal nous permettant de prévoir l’avenir technologique ni d’évaluer nos besoins futurs. De nombreux pays (en particulier les États-Unis) ont probablement commis une grave erreur en décourageant les technologies nucléaires et, à présent, nous et le reste du monde sommes pris au piège (voir note en fin de billet) des conséquences de la catastrophique erreur de jugement induite par une application trop stricte du principe de précaution. De même, l’étude du cas du riz doré souligne les dangers de l’orgueil réglementaire sur la scène mondiale, car de nombreux décideurs ont freiné les innovations salvatrices qui auraient pu soulager la souffrance et la mort.

Il est grand temps de rejeter la logique simpliste du principe de précaution et de passer à une approche plus rationnelle et équilibrée de la gouvernance des technologies. Nos vies et notre bien-être en dépendent.

Liens. Source : https://www.mercatus.org/publications/regulation/death-regulation-how-regulations-can-increase-mortality-risk

https://pris.iaea.org/pris/CountryStatistics/CountryDetails.aspx?current=US

https://www.world-nuclear.org/information-library/country-profiles/countries-t-z/usa-nuclear-power.aspx

https://public-blog.nrc-gateway.gov/2016/06/03/too-cheap-to-meter-a-history-of-the-phrase/

Illustration : Contrepoints ( https://www.contrepoints.org/2018/03/13/179323-principe-de-precaution-un-principe-tueur )

Commentaires. Pour mémoire le principe de précaution émergea en 1992 dans la Déclaration de Rio relative à la préservation de l’environnement. Il a été inscrit dans la constitution française (loi Barnier de 1995) par le démagogue en chef du monde politique français Michel Barnier devenu depuis Commissaire européen. Un article figure dans le présent blog au sujet de la catastrophe industrielle et commerciale provoquée par l’application stricte du principe de précaution par Simone Veil, alors Ministre de la Santé, qui fit disparaître d’un trait de plume l’un des fleurons français de la biotechnologie. Relire cet article paru en 2017 est instructif : https://jacqueshenry.wordpress.com/2017/07/04/le-principe-de-precaution-et-simone-veil-une-catastrophe/

Pour ce qui concerne l’énergie nucléaire, la Chine, préoccupée par l’augmentation incessante de la consommation d’électricité, a fait fi du principe de précaution en développant le premier réacteur nucléaire haute température type « pebble bed » qui devrait être connecté au réseau au cours de l’année 2020 tandis que deux surrégénérateurs de conception russe sont en cours de construction profitant du retour d’expérience de la Russie dans ce domaine. En ce qui concerne la France la fermeture des deux réacteurs de Fessenheim est motivée par le principe de précaution en invoquant la « vieillesse » de cette installation alors qu’elle pourrait fonctionner encore au moins 30 ans, voire plus. Le dossier a été examiné par des politiciens ignorants qui ont invoqué une obsolescence dangereuse. Il est grand temps de reconsidérer ce principe avant qu’il ne fasse encore plus de ravages dans les économies car la France n’est pas le seul pays à avoir atteint ce seuil d’imbécillité « chimiquement pure ».