A propos jacqueshenry

Ecrivain.

Crise climatique : les supercheries de l’IPCC dévoilées les unes après les autres

2048.jpg

La propagande réchauffiste continue à empoisonner l’opinion mais également à infléchir les prises de décision du pouvoir politique dans de nombreux pays occidentaux. Si la Chine a été très claire après le fumeux traité de Paris sur le climat – pas de réduction des émissions de CO2 avant 2030 – d’autres pays comme l’Allemagne ou encore la Suisse ont décidé d’abandonner l’énergie nucléaire et le pitre dangereux qui est en charge du climat en France suit l’exemple désastreux de l’Allemagne en ce qui concerne cette source d’énergie. Et pourtant l’IPCC a menti depuis plus de 20 ans, un mensonge collectif, organisé et assumé par  » 97 % des scientifiques spécialistes du climat « . En dépit du risque de ne plus trouver d’argent public pour continuer leurs travaux de recherche des scientifiques courageux publient néanmoins des résultats qui sont diamétralement opposés aux conclusions des rapports de l’IPCC.

Prenons l’exemple de l’Antarctique dont les médias viennent de s’occuper activement avec l’annonce faite à grands renforts de photos et d’alarmisme du détachement d’une grande langue glaciaire flottante. Certains quotidiens que je ne nommerai pas tant leur mauvaise foi est évidente alors qu’ils sont reconnus comme sérieux ont même titré que le niveau des océans allait monter pour cette raison de plusieurs centimètres. Ces journalistes peu scrupuleux ignorent que la glace flotte car sa densité est inférieure à celle de l’eau. Mais là n’est pas le sujet de ce billet. Il concerne l’évolution des températures dans la région antarctique qui englobe non seulement le continent lui-même mais également toutes les mers du sud jusqu’à une latitude de 60° sud.

Les carottes de glace très soigneusement étudiées et provenant de divers forages du glacier antarctique ont permis de reconstruire les températures passées en se basant sur les teneurs en isotopes de l’oxygène. Puisque c’est un peu compliqué et je doute que le piteux pitre ministre d’Etat du climat français ait disposé un jour de suffisamment de sagacité intellectuelle pour comprendre comment les scientifiques (dont il n’a jamais fait partie) ont pu très précisément reconstituer ces températures passées, je me fais ici un plaisir d’exposer aussi clairement et succinctement que possible de quoi il s’agit.

L’oxygène que nous respirons est constitué de deux isotopes naturels l’oxygène-16, le plus abondant à raison de 99,8 %, et d’oxygène-18 pour les 0,2 % restants. Les échanges de température entre les océans et l’atmosphère sont essentiellement assurés par les changements de phase de l’eau au cours desquels l’eau se transforme en vapeur par évaporation des océans puis la vapeur d’eau se condense en gouttelettes d’eau formant les nuages. Ce changement de phase gaz vers liquide s’accompagne d’un fort dégagement de chaleur qui va échauffer les autres constituants gazeux de l’atmosphère, essentiellement l’azote et l’oxygène. Ultimement ces gouttelettes se transforment en glace – la neige – pour encore réchauffer au cours de cet autre changement de phase l’air environnant. Toute cette chaleur se dissipera ensuite vers les hautes couches de l’atmosphère puis se perdra dans l’espace selon le deuxième principe de la thermodynamique qui stipule, en résumant à l’extrême, qu’un corps chaud ne peut pas transmettre d’énergie thermique sous forme de rayonnement vers un autre corps plus chaud.

On peut donc dire, toujours en résumant, que c’est grâce à la vapeur d’eau que la Terre n’est pas une fournaise car la chaleur apportée par le Soleil est constamment dissipée par ce processus de changements de phase de la vapeur d’eau. Au cours de l’évaporation de l’eau océanique qui dépend évidemment de la température la faible différence de poids entre une molécule d’eau ne contenant que de l’oxygène-16 et une molécule d’eau contenant un atome d’oxygène-18, 11 % tout de même, suffit pour enrichir la vapeur d’eau en eau (O-18) s’il fait plus chaud. En d’autres termes il faut plus d’énergie pour qu’une molécule d’eau contenant l’isotope 18 de l’oxygène s’évapore autant que pour son équivalent ne contenant que de l’oxygène 16. Dans le même ordre d’idées l’eau « lourde », également 11 % plus lourde que l’eau dite légère, utilisée comme modérateur de neutrons dans les réacteurs nucléaires de type CANDU au Canada, contient deux atomes de deutérium, l’isotope lourd de l’hydrogène, et cette eau bout à 101,4 degrés au lieu de 100 °C pour l’eau « normale », une vérification de ce qui vient d’être énoncé.

Par conséquent l’analyse de la teneur en ces deux isotopes dans la glace des carottes glaciaires de l’Antarctique permet de recalculer l’évolution de la température des océans et de l’atmosphère au cours du temps. Il s’agit d’un des « proxys » permettant aux scientifiques de se faire une idée très précise de l’évolution des températures passées au niveau de la mer mais également de l’atmosphère étant entendu que la circulation atmosphérique entre les zones intertropicales et les pôles est restée stable au cours du temps, un point qui n’a jamais été contesté par les spécialistes.

Capture d’écran 2017-07-22 à 11.25.43.png

Il faut noter ici que cette même approche a été réalisée avec les concrétions calcaires des grottes et avec les coquillages et a conduit aux mêmes résultats. Dans le cas des carottes issues des forages des glaces de l’Antarctique, c’est très clair : la température moyenne de la surface des océans et de l’atmosphère n’a pas évolué au cours du XXe siècle. La reconstruction de cette évolution est visualisée comme une anomalie de température par rapport à la moyenne des températures durant toute cette période, ce qui est beaucoup plus parlant pour le néophyte dont je suis. Seules les données brutes des teneurs en oxygène-16 et -18 ont été utilisées pour construire ce graphique. Comme il est aisé de le remarquer il existe une incertitude de +/- 0,5 degrés matérialisée en grisé dans ce graphique mais en dehors de l’optimum de températures des années 1920-1940 (qui a conduit à une accélération du retrait des glaciers alpins, par exemple, 30 ans plus tard) et de ce qu’il est courant d’appeler l’optimum moderne, en gros les 20 dernières années du XXe siècle comme cela apparaît clairement dans cette illustration, les températures moyennes globales de l’Antarctique et donc des océans du sud et de l’atmosphère calculées uniquement par cette méthode, à l’exclusion de toute autre observation, sont restées remarquablement stables.

Il n’y a donc pas de souci à se faire au sujet des manchots empereurs dont la disparition a été prédite récemment par certains alarmistes du climat, la glace antarctique n’est pas sur le point de fondre et le niveau des océans n’a pas changé significativement depuis les années 1900. Cette approche strictement « isotopique » a enfin permis d’éliminer les manipulations scandaleuses de calculs des températures moyennes de surface à partir de stations météorologiques judicieusement placées dans des parkings de grandes villes ou à proximité des pistes de décollage des avions dans les aéroports, pour ne citer que ces exemples caricaturaux qui n’ont pas éveillé les soupçons des « scientifiques » de l’IPCC car ça les arrangeaient pour répandre leur propagande mensongère de réchauffement. Heureusement qu’il y a encore de nombreux spécialistes du climat qui ont le courage de clamer la réalité au risque de mettre leur carrière en danger. Et je me permets de vivement les remercier ici.

 

Source : Journal of Geophysical Research, doi : 10.1002/2016JD026011 , illustration tirée d’un billet du blog de Pierre Gosselin, l’auteur de l’article cité en référence n’ayant pas daigné (ou oublié de) m’envoyer une copie électronique de son article sur ma demande. L’autre illustration provenant de la Nasa est le détachement de la banquise Larsen C dans l’Antarctique.

Le Pape veut béatifier Blaise Pascal !

Pascaline-CnAM_823-1-IMG_1506-black.jpg

Comme Mozart et Schubert, deux génies de la musique, Blaise Pascal mourut à 39 ans et il fut aussi un génie autodidacte dans le domaine de la physique et des mathématiques. À 19 ans il inventa la machine à calculer (illustration : la « pascaline ») après avoir revisité les notions de vide et de pression qu’avait ébauché Torricelli et ayant papillonné dans de nombreux autres domaines des mathématiques comme par exemple la géométrie projective qui fut reprise au même moment par un autre illustre mathématicien français, Pierre Fermat, un ami de Pascal, pour établir les principes de base des calculs de probabilité. Pascal, Blaise de son prénom, fut également durant cette période d’une intense créativité intellectuelle un talentueux trousseur de jupons. Sa soeur le convertit au jansénisme en 1594 (lire ci-dessous) et ce fut alors une errance philosophico-religieuse d’écrivain plutôt polémiste qui mit à mal les Jésuites dans son pamphlet « Les Provinciales » . Ce dont je me souviens de manière la plus vivante de l’oeuvre de Pascal est son petit livre intitulé « Les Pensées » publié à titre posthume, un petit chef-d’oeuvre inégalé de philosophie encore plus sublime que les Pensées de Marc-Aurèle. Mais avant sa mort Pascal ne quitta jamais sa passion pour les mathématiques. Il explora par exemple par le calcul les courbes appelées cycloïdes …

Après ce très bref résumé de sa biographie, on ne peut pas dire pour quelles raisons le Pape déciderait de béatifier Pascal. Cette décision surréaliste – Pascal fut un inlassable pourfendeur épistolaire des Jésuites – repose sur l’unique fait que le 23 novembre 1654, entre 22h30 et minuit et demi il entendit des voix, eut des visions et la foi lui fut révélée. Il décida de s’infliger une retraite mystique au couvent janséniste de Port-Royal. L’histoire ne dit pas s’il continua à laisser libre cours à son attirance pour la gent féminine, il est raisonnable d’en douter. Donc, le Pape, comme pour les deux bergères de Fatima dont il fit récemment des « saintes », a décidé de simplement le béatifier. C’est tout simplement déshonorant pour la mémoire de cet Auvergnat Ô combien illustre.

Source biographique et illustration : Wikipedia. Un prochain billet de ce blog sera consacré aux personnes qui « entendent des voix ».

L’activité solaire et le prix des denrées alimentaires

Galileo_galilei,_telescopi_del_1609-10_ca..jpg

En 1887 le Professeur Rogers publia le dernier et septième volume d’une considérable somme rassemblant l’ensemble de ses travaux de décryptage des registres des moines anglais et des notes manuscrites des propriétaires terriens anglais ou encore des économes des séminaires, documents relatifs aux fluctuations du prix du blé dans le Royaume de Sa Majesté. Cette étude gigantesque occupa plus de 50 ans de la vie de cet érudit acharné et elle est toujours considérée par les économistes comme un instrument irremplacable pour l’étude sur le long terme des facteurs externes influençant le prix des denrées agricoles (voir note en fin de billet). En ce qui concerne l’évolution du prix du blé il est nécessaire de rappeler que le Royaume-Uni est un cas particulier car il s’agit d’un pays insulaire situé à la limite nord de la culture de cette céréale. En effet, en dehors des périodes de climat optimal comme au Moyen-Age et plus récemment au cours de la deuxième moitié du XXe siècle il était hasardeux de cultiver le blé au nord de l’estuaire de la rivière Humber. L’approvisionnement en blé du Royaume était donc très étroitement corrélé aux conditions météorologiques et comme il n’existait pas encore de commerce international convenablement organisé pour suppléer aux besoins en blé les fluctuations du prix de cette denrée alimentaire de base sont donc un reflet extrêmement précis de ces variations météorologiques et comme l’ont magistralement montré les Docteurs Lev Pustilnik et Gregory Yom Din, respectivement de l’Université de Tel Aviv et du Golan Research Institute en Israël, des variations de l’activité solaire.

Les travaux de Rogers couvrent la période 1249-1703 or l’observation des taches solaires qui sont un bon indicateur de l’activité solaire n’ont réellement débuté qu’après l’invention de la lunette – ou plutôt du téléscope – par Galilée en 1609. Après cette date se situe le fameux minimum d’activité solaire de Maunder qui durera jusqu’au début du XVIIIe siècle et l’observation des taches solaires qui était devenue une véritable mode en Europe avec l’usage du téléscope et de la lunette fut plutôt difficile car il n’y eut tout simplement presque pas d’activité magnétique solaire pendant plus de soixante-dix ans. Fort heureusement la science moderne a pu reconstituer l’activité solaire passée en mesurant la teneur en béryllium-10 dans les carottes glaciaires du Groenland et cette teneur est inversement proportionnelle à l’activité magnétique solaire.

Sans vouloir établir une relation de cause à effet directe entre l’activité solaire et le prix du blé en Grande-Bretagne Pustilnik et Yom Din ont tout de même établi, après un dépouillement détaillé et une analyse minutieuse des données rassemblées par Rogers, qu’il était impossible de nier que cette relation existait. Il leur fallut filtrer, c’est-à-dire exclure, certaines fluctuations de ce prix du blé en raison d’évènements historiques tels que des conflits guerriers bien répertoriés par les chroniques. Il est apparu que les fluctuations du prix du blé étaient périodiques et que cette période était d’environ 11 à 12 ans. Il existe deux cycles astronomiques pouvant coïncider avec cette périodicité, l’activité magnétique du Soleil en moyenne de 11 ans et la révolution de Jupiter autour de cet astre qui est de 11 ans et dix mois. Comme les observations récentes par satellite ont clairement montré que le rayonnement cosmique galactique avait une influence directe sur l’apparition de nuages, une vérification des simulations réalisées dans des chambres à brouillard réalisées dans les laboratoires du CERN par bombardement avec des particules simulant les rayons cosmiques l’a d’ailleurs clairement démontré, les auteurs ont pu établir que même durant le fameux minimum de Maunder l’activité magnétique solaire fluctuait avec une périodicité d’environ 11 années et qu’elle avait eu une influence sur le prix du blé amplifiée par les conditions climatiques calamiteuses qui prévalèrent non seulement en Grande-Bretagne mais également en Europe continentale.

Capture d’écran 2017-07-18 à 20.21.20.png

L’illustration ci-dessus est une représentation des fluctuations des prix du blé au cours de la période couvrant le minimum climatique de Maunder. La courbe continue relate les variations de la teneur en béryllium-10 des forages réalisés au Groenland et il faut rappeler que plus il y a de béryllium-10 (radioactif) plus l’activité solaire est faible. Superposés à cette courbe de variation de la teneur en béryllium-10 atmosphérique se trouvent les prix du blé en noir durant les minima d’activité solaire et en blanc durant les maxima d’activité. Les symboles, losanges ou triangles, résultent de calculs de moyennes différents mais ils corroborent le fait que les prix du blé étaient de manière générale plus élevés durant les années de faible activité magnétique solaire. Cette illustration est bien une preuve évidente de l’influence directe du Soleil sur les récoltes agricoles à une époque où il n’était même pas question de charbon ni de pétrole. Cette périodicité calculée comme étant très exactement de 11,2 années a permis par ailleurs d’exclure toute influence significative de la rotation de Jupiter autour du Soleil sur le climat terrestre.

Comment peut-on encore passer sous silence l’effet de l’activité solaire sur le climat de la planète ? Dans les lignes de ce blog il m’est souvent arrivé de mentionner les effets potentiellement catastrophiques du refroidissement du climat prévu par de nombreux géophysiciens dans un très proche avenir sur la production agricole d’une manière générale et plus critiquement encore dans les pays les plus sensibles à ce refroidissement. Viennent à l’esprit la Pologne, l’Ukraine, le Danemark, le nord de l’Allemagne, la Grande-Bretagne et le nord de la France pour ne mentionner que l’Europe. Les grandes cultures comme le blé ou encore le maïs et la betterave risquent d’être fortement perturbées par la chute de l’activité magnétique solaire qui est annoncée comme imminente – vers 2019-2020. L’étude mentionnée ici faisait état d’un temps de latence d’environ 18 mois de l’incidence de la chute d’activité solaire sur l’augmentation du prix du blé. Il est donc à peu près certain que dès le début de la prochaine décennie de graves perturbations apparaîtront dans la production de ces grandes cultures qui entraineront une envolée considérable des prix. Huile, sucre, farine, fruits et légumes, viande et produits lactés seront impactés par ce refroidissement que d’aucuns continuent à nier car la propagande « réchauffiste » favorise les « affaires » en tous genres liées à la production qualifiée comme dangereuse de gaz carbonique. Le retour à la réalité sera très douloureux. Il ne reste que trois ans pour se préparer : c’est déja trop tard …

Source : arXiv, doi : 10.1134/S1990341313010100

Note. La notion de météorologie spatiale englobe les facteurs d’origine extraterrestre influençant la météorologie terrestre. L’activité magnétique solaire joue un rôle central dans la « météo spatiale ». Le champ magnétique solaire varie selon un cycle de 11 années environ et a une directe influence sur le flux de rayons cosmiques d’origine galactique atteignant l’atmosphère terrestre. Les variations d’activité de la dynamo solaire ont également un effet direct sur le champ magnétique terrestre et sur la fréquence et la violence du « vent solaire ». Il est important de noter que l’irradiance solaire varie très faiblement au cours d’un cycle solaire ( +/- 0,1 %), une observation qui a conduit les gourous de l’IPCC à nier l’influence de l’activité solaire sur le climat terrestre.

Illustrations : lunettes de Galilée et arXiv

En vacances, profitez du soleil mais sans en abuser

Plectranthus_barbatus.jpg

En cette période estivale les rituels bains de soleil à la plage ou plus prosaïquement dans son jardin font presque partie du folklore des vacances. Cette pratique n’est pas sans dangers surtout pour les personnes qui ont la peau claire et n’arrivent pas à bronzer. Étymologiquement la peau va prendre la couleur du bronze mais outre l’aspect esthétique recherché il s’agit d’une réaction de celle-ci aux rayons ultra-violets (UV) dont les effets cancérigènes sont prouvés contrairement à ceux de beaucoup d’autres produits considérés comme « probables cancérigènes » sans qu’il n’y ait jamais eu de preuves formelle de cet effet. Mais là n’est pas l’objet de ce court billet.

Toutes les crèmes dites solaires supposées protéger la peau des rayons UV ont, sans exception, une efficacité médiocre. Si elles contiennent effectivement des produits arrêtant les UV ces produits sont détruits par ces derniers et il faudrait se tartiner la peau toutes les 5 minutes pour espérer une protection significative. Il existe pourtant une plante qui stimule la production, sans bain de soleil, de la mélanine par la peau, la substance qui protège naturellement contre les rayons UV et conduit au bronzage tant recherché.

400px-Forskolin.svg.png

Cette plante, de la famille des coléus, le Plectranthus barbatus, synthétise un composé chimique appelé forskoline du nom précédent de cette plante le Coleus forskohlii ou coléus indien. Il s’agit d’un diterpène qui n’a pas d’effet de protection sur les UV mais stimule la peau pour produire massivement de la mélanine selon un mécanisme biologique plutôt complexe au sujet duquel je ne m’étendrai pas. Appliquée en lotion sur la peau, une décoction aqueuse de cette plante provoque un « bronzage » protecteur rapide et il paraît, selon la médecine traditionnelle indienne qu’en tisane ce coléus serait même un hypotenseur.

Source : ScienceAlert, illustrations Wikipedia

La propagande climatique bat son plein !

Capture d’écran 2017-07-19 à 13.02.06.png

Cette photo a fait la une de la presse occidentale et des réseaux sociaux. L’Inde va mettre en service des trains propulsés à l’énergie solaire !!! C’est du grand n’importe quoi … La capture d’écran ci-dessous indique la source : il s’agit du quotidien indien The Hindu et l’article date du 15 juillet 2017. Apparemment le titre a accroché la sagacité des journalistes et des adeptes névrosés des réseaux sociaux (dont je ne fais pas partie) assommés quotidiennement par la propagande « réchauffiste » qui ressort aussi chaque mois en affirmant qu’on vient de vivre le mois le plus chaud depuis la disparition des dinosaures, je veux parler du mois de juin dernier.

En Inde, pays où se trouve le plus grand réseau ferroviaire du monde, en très grande majorité les trains sont tractés avec des motrices diesel. Or dans ces motrices il y a plusieurs moteurs, en général deux moteurs pour la traction, et un ou deux groupes électrogènes pour produire de l’électricité qui alimente l’éclairage et éventuellement des conditionneurs d’air. C’est exactement la même chose dans les avions de ligne qui sont équipés d’un groupe électrogène dans la queue de l’appareil et des bateaux de fret ou de croisière.

Dans le cas des gros porte-containers (j’ai fait la traversée Le Havre-Pointe-à-Pitre sur un de ces bateaux) il y a deux énormes moteurs pour la propulsion et une dizaine de groupes électrogènes car il faut aussi alimenter les centrifugeuses qui clarifient l’huile de lubrification des moteurs de propulsion et les groupes frigorifiques qui refroidissent les containers remplis de denrées périssables. Dans le cas des trains de banlieue de l’agglomération de Delhi, les DEMU (diesel electric multiple unit) vont être équipés de panneaux solaires pour alimenter l’éclairage des wagons, un point c’est tout ! Le titre de l’article de The Hindu est ambigu et toute la presse asservie par les grands groupes financiers internationaux a repris cette information en la déformant car ces mêmes groupes financiers veulent prioritairement profiter de la manne de la « transition énergétique » dont on nous gargarise à longueur de journée. Ce sont en effet des centaines de milliards de dollars bons à prendre chaque année, une véritable ruée vers l’or climatique …

Capture d’écran 2017-07-20 à 09.58.32.png

Il reste cependant à noter que le Ministère des Transports indien prétend pouvoir économiser 21000 litres de fuel par an pour chaque train équipé de ces panneaux solaires « made in PRC ». Il est intéressant de mentionner également que ce Ministère envisage aussi de faire rouler certains trains avec du bio-carburant oubliant à l’évidence que produire des biocarburants dans un pays où tout le monde ne mange pas à sa faim paraît criminel. Mais les écologistes de tous poils n’en sont pas à une aberration près quitte à éventuellement affamer la population pour satisfaire leurs rêves insensés.

Source et illustrations : The Hindu

Les plantes se défendent elles-mêmes contre les ravageurs, et c’est très sophistiqué !

Methyl_jasmonate_skeletal.svg.png

Le gazon fraichement tondu dégage une odeur particulière, un mélange d’acide abscissique et de jasmonate de méthyle (structure ci-dessus) que beaucoup de parfumeurs ont tenté d’incorporer à leurs savants mélanges de senteurs sans grand succès commercial. L’acide abscissique stimule le processus de cicatrisation de la plante coupée et sert également de répulsif pour les insectes et les champignons pathogènes. L’ester, le jasmonate, est volatil et désoriente les insectes prédateurs mais cette stratégie n’est pas toujours gagnante malheureusement pour la plante : c’est la dure loi de la nature. Pour comprendre comment la plante se défend des biologistes de l’Université du Wisconsin à Madison ont étudié ce qui se passait avec des plants de tomates quand ils les infestaient avec des chenilles Spodoptera exigua (illustration) que tous les jardiniers redoutent. L’expérience en elle-même fut très simple. Avant que les chenilles commencent à se nourrir sur la plante l’expérimentateur vaporisait une solution de jasmonate de méthyle à différentes concentrations sur celle-ci. Les chenilles, animées d’un appétit féroce et en quelque sorte perturbées par la présence de cette molécule chimique se livraient alors à un cannibalisme en règle pour le plus grand bénéfice de la plante, naturellement.

800px-Spodoptera_exigua.png

Cette étude toute simple révèle que la plante dispose d’outils de défense sophistiqués en partie induits par le jasmonate excrété par la plante elle-même. Reste à déterminer quel est le mécanisme chimique secondaire que développe la plante pour se défendre efficacement et éventuellement identifier les composés chimiques qui constitueraient un excellent insecticide pour combattre les assauts de chenilles souvent dévastatrices pour les cultures maraîchères à ciel ouvert. La partie n’est cependant pas gagnée car l’identification de telles molécules chimiques requiert de la patience et un équipement analytique très sophistiqué en particulier si ces composés ne sont pas volatils et ne sont présents qu’en quantités infimes. À suivre

Source : Nature en accès libre, doi : 10.1038/s41559-017-0231-6

Fusion nucléaire : la Chine a pris une avance de 100 secondes !

Capture d’écran 2017-07-18 à 11.16.33.png

La Chine est l’un des pays contributeurs du projet ITER dont j’ai dit quelques mots à plusieurs reprises sur ce blog. Mon opinion (que je ne partage qu’avec moi-même comme disait très justement Pierre Desproges) n’a pas évolué au sujet de ce projet insensé et incroyablement coûteux. Jamais la fusion nucléaire ne pourra être maîtrisée afin de produire de l’énergie. Ce projet relève de l’illusion mais néanmoins la Chine investit des moyens considérables dans ce type de technologie et vient pour la première fois de maîtriser un plasma d’hydrogène plus de 100 secondes à une température propice à la fusion nucléaire qui aurait atteint l’incroyable valeur de 100 millions de degrés. Afin de clarifier les idées de mes lecteurs peu familiers de cette technologie il s’agit de confiner dans un champ magnétique intense des noyaux d’hydrogène. L’agitation de ces noyaux entraine une élévation de température et si le plasma est bien confiné dans le champ magnétique cette température atteint des valeurs telles que la fusion de noyaux entre eux devient possible. Cette fusion produit des noyaux d’hélium avec comme conséquence une intense production d’énergie thermique.

Cependant dans le cas de l’installation chinoise appelée EAST (acronyme de Experimental Advanced Superconducting Tokamak) la prouesse récemment atteinte ne concernait que des noyaux d’hydrogène léger. Or il est difficile d’assister dans ces conditions à une fusion nucléaire effective car il faudrait arriver à maîtriser un plasma constitué à parts égales des deux isotopes plus lourds de l’hydrogène, du deutérium et du tritium, qui en fusionnant produiront un noyau d’hélium et un neutron très énergétique. Dans la pratique, cette étape démontre qu’il va être donc possible de réaliser la même opération avec ce mélange. La Chine a donc franchi une étape cruciale dans la mise au point de la fusion nucléaire, ce qui ne veut pas dire qu’on arrivera un jour à exploiter industriellement ce processus.

Capture d’écran 2017-07-18 à 10.44.39.png

Le principe de la production d’énergie thermique par fusion nucléaire consistera à récupérer cette énergie à l’aide d’un gaz, très probablement de l’hélium, qui sera conduit dans un échangeur de chaleur. Il s’agit d’un concept encore très théorique pour deux raisons essentielles. La stabilité du plasma doit être maintenue durablement – des jours, des mois, des années – pour qu’une exploitation industrielle puisse être raisonnablement envisagée : les ingénieurs chinois sont péniblement arrivés à 100 secondes, on est donc encore très loin des conditions d’exploitation. La deuxième raison qui apparemment ne semble pas préoccuper ces mêmes ingénieurs est le bombardement neutronique extrêmement intense auquel sera soumis l’intérieur de l’installation en forme de tore (illustration Académie des Sciences chinoise) outre bien entendu la chaleur intense dégagée qu’il faudra évacuer à l’aide d’hélium propulsé par des pompes résistant à cette même chaleur intense. Pour l’instant c’est la « boite noire » technologique. Ce qui est stupéfiant dans cette histoire est que les ingénieurs comme les décideurs politiques qui encouragent ces projets de fusion passent sous silence ces deux aspects pourtant cruciaux pour éventuellement atteindre une production électrique rentable dans un avenir incertain.

Et pourtant, forts de cette avancée qualifiée de très satisfaisante – 100 secondes, c’est « énorme » – les responsables chinois sont optimistes et pensent qu’à l’horizon 2030 il sera possible de produire jusqu’à 200 MW électriques, entendez production nette. Je n’arrive pas à le croire, c’est de la pure propagande organisée par des scientifiques qui ont tout simplement besoin de vivre, exactement comme les dizaines de milliers de personnes qui vivent du « réchauffement climatique d’origine humaine » en pondant des projets de recherche tous aussi farfelus les uns que les autres. Compte tenu de mes maigres connaissances en chimie et en physique je peux affirmer sans me tromper qu’il n’existe aucun matériau dans la croute terrestre capable de résister à un bombardement de neutrons intense et durable résultant du processus de fusion le plus simple imaginable :

deutérium + tritium –> hélium + 1 neutron + énergie thermique

Capture d’écran 2017-07-18 à 11.12.05.png

Quant à la résistance à la chaleur de machines tournantes, je pense aux pompes véhiculant l’hélium vers des échangeurs de chaleur, au delà de 1000 degrés les problèmes deviennent sans solution. Or ces installations de fusion devront gérer des températures théoriques de dizaines de millions de degrés … J’avoue que je suis non seulement perplexe mais aussi et surtout écoeuré par l’immense gâchis financier tant chinois qu’international pour un rêve qui ne se concrétisera jamais. Ci-dessous le chantier ITER en octobre 2016 et construction par des techniciens chinois de bobines supra-conductrices pour ITER dans les ateliers de la CNIM à la Seyne-sur-Mer à l’aide de centaines de milliers de fils supra-conducteurs fabriqués en Chine, chaque fil aussi fin qu’un cheveu coûtant la modique somme de 4400 dollars.

Capture d’écran 2017-07-18 à 11.13.34.png

Source et illustrations : South China Morning Post