Brève. La constante physique de structure fine, magique ?

Il y a des mois que je songe à écrire un petit billet sur la constante « alpha » ou constante de structure fine et un article paru ce 2 décembre m’a décidé. Cette constante physique quantifie la valeur de l’interaction électromagnétique entre particules chargées. Aussi appelée constante de Sommerfeld cette grandeur sans dimension physique, ce n’est qu’un facteur multiplicatif, elle intervient dans la quantification de la structure fine des lignes spectrales de l’hydrogène, d’où son nom.

Pourquoi cette constante a-t-elle été considérée comme magique ? Ce n’est plus vraiment le cas aujourd’hui puisque la mécanique quantique est considérée comme acquise et que ses principes fondamentaux n’ont jamais été remis en cause par l’expérience depuis les années 1920-1930. Cette constante est magique, non pas pour un physicien de métier mais pour un béotien comme votre serviteur (je n’ai jamais rien compris aux équations de Schrödinger et encore moins aux équations d’Einstein sur la relativité générale), parce qu’elle s’écrit en faisant intervenir le nombre pi (p) et 4 constantes fondamentales de la physique. Elle s’écrit ainsi :

α = e2 / 2ε0hc

Où :

e est la charge élémentaire de l’électron ou du proton (1,602 x 10-19 Coulomb)

ε0 est la constante électrique dans le vide ou encore la capacitance dans le vide ( 8,854 x 10-12 farad/m)

h est la constante de Planck (6,626 x 10-34 Joule.seconde) et

c est la vitesse de la lumière dans le vide (299 792 458 m/secondes)

La valeur numérique de α est, selon les toutes dernières mesures réalisées ce 2 décembre 2020, égale à 0,0072973525628, moyenne de 6 mesures ( https://doi.org/10.1038/s41586-020-2964-7 ). Le seul point de détail qui puisse être considéré comme magique pour cette constante est que cette valeur est égale, si on ne chipote pas trop sur les décimales, à l’inverse du nombre 137 : 1/137, qui est le 33e nombre premier si le nombre 1 est exclu.

Une nouvelle particule découverte au LHC du CERN

Capture d’écran 2020-07-30 à 14.43.37.png

Pour un non-initié comme votre serviteur le titre de cette publication sonne étrangement : « Observation of structure in the J/ψ-pair mass spectrum ». Si vous n’avez rien compris, rassurez-vous, je n’ai rien compris aussi. Mais comme je suis curieux je suis allé voir dans le détail ce que signifiait cette publication co-signée par 800 scientifiques émanant du LHC au CERN. Il s’agit de la découverte d’une nouvelle particule sub-atomique et pour comprendre l’importance de cette découverte, outre celle du boson de Higgs, il faut remonter au milieu des années 1960 lorsque deux physiciens, l’un au CERN et l’autre au Caltech à Pasadena, tentèrent une sorte de mise en ordre de toutes les particules sub-atomiques qui venaient d’être mises en évidence. Murray Gell-Mann du Caltech proposa de nommer ces particules des quarks et ce nom resta. On sait aujourd’hui qu’il existe six différents quarks selon leur nombre quantique et leur masse (énergie exprimée en électronsvolt divisée par le carré de la vitesse de la lumière) : up, down, charm, strange, top et bottom. Il existe également six anti-quarks de charge opposée. Pour terminer la description de ces étranges entités physiques un quark s’associe avec l’anti-quark correspondant pour former un meson et trois quarks forment des baryons. Les mesons sont instables et se désintègrent pour former des électrons, des neutrinons ou des photons selon leur nature, c’est-à-dire selon leurs composants élémentaires. L’interaction forte de trois quarks aboutit à la formation de baryons, les constituants de la matière telle que nous la connaissons depuis l’hydrogène jusqu’à l’uranium et au delà.

1024px-Standard_Model_of_Elementary_Particles.svg

La théorie n’excluait pas l’association de plus de trois quarks et en effet un nouveau meson X(3872) fut mis en évidence en 2003 au KEK Laboratory au Japon d’une masse de 3872 MeV/c2, selon la célèbrissime formule d’Einstein réécrite ainsi : m = E/c2 . Il fallut attendre encore plusieurs années pour que les physiciens réalisent que ces mesons « exotiques » étaient en réalité des associations de plus de trois quarks : deux quarks charm relativement lourds et deux ou trois autres quarks plus légers, up, down ou strange (voir les masses respectives dans l’illustration, Wikipedia). Le nouveau meson découvert au LHC, appelé X(6900), est constitué de 4 quarks charm, il possède une masse de 6900 MeV/c2 et il se désintègre en formant deux mesons appellés « J/psi » formés chacun d’un quark charm et d’un anti-quark charm eux-mêmes associés par interaction forte. Ces mesons chimériques se désintègrent à leur tour en un rayon gamma et un gluon … Cette découverte est importante dans la mesure où elle met en évidence un parallélisme entre les interactions fortes quark-quark et les interaction fortes entre les baryons, par exemple entre neutrons et protons dans un noyau atomique. Les physiciens arrivent donc à décrire une sorte d’édification de « molécules » formées de quarks un peu comme un atome de carbone forme une molécule de méthane avec 4 atomes d’hydrogène bien que le niveau des interactions – forte dans un cas et faible dans l’autre – ne puissent pas être comparé. Peut-être qu’un jour en décortiquant l’infiniment petit avec des détecteurs d’une dimension gigantesque (illustration) on arrivera à unifier l’ensemble des lois qui décrivent l’univers.

Source partielle : The Conversation, illustrations CERN et Wikipedia.

L’effet de serre du CO2 : réalité ou fiction ?

Capture d’écran 2018-06-17 à 18.25.16.png

Les ingénieurs experts dans l’industrie des radiations infra-rouges, en particulier celle du chauffage domestique, sont formels : la théorie de l’effet de serre du gaz carbonique atmosphérique est fausse. Seuls les modèles fantaisistes des climatologues prennent en considération cette théorie pour expliquer le réchauffement du climat d’origine humaine. Revenons aux origines de la physique c’est-à-dire à la loi de Newton sur le refroidissement qui stipule que « La vitesse de perte de chaleur d’un corps est proportionnelle à la différence des températures entre celle de ce corps et celle de son environnement« . Il s’agit de la loi de physique qui définit le flux de chaleur entre deux corps physiques en contact et dans le cas qui nous préoccupe entre la l’atmosphère et la surface de la Terre et des océans. Elle s’écrit ainsi :

T2 = T0 + (T1 – T0) e (-kΔt)

où :

T2 est la température finale du corps considéré,

T1 est sa température initiale,

T0 est la température de l’espace environnant,

Δt est le temps d’équilibre entre les températures T2 et T1

k est une constante à déterminer et qui requiert des calculs dont aucun d’entre eux n’a de lien avec la radiation infra-rouge émise par le corps considéré.

La théorie de l’effet de serre tente de définir les transferts de chaleur entre la Terre et l’atmosphère en utilisant la loi de Stefan-Boltzmann relative aux radiations infra-rouges qui nécessite un facteur qui est absent dans ce cas : la partie la plus basse de l’atmosphère devrait selon cette loi être séparée de la surface de la Terre par du vide, or elle est directement en contact avec la surface terrestre et celle des océans. Seule la loi du refroidissement de Newton peut donc s’appliquer dans le cas du système Terre-atmosphère. N’est-il pas axiomatique de ne pas pouvoir obtenir la bonne réponse quand on utilise la mauvaise loi pour décrire un phénomène ? Puisque Newton est mentionné ici auriez-vous la prétention d’utiliser la loi de la chute d’une sphère d’une hauteur de 5 mètres pour déterminer son volume ?

La question qui nous intéresse est donc de savoir si oui ou non il est possible de chauffer l’atmosphère à l’aide de radiations infra-rouges. Et si c’est le cas comment un tel transfert de chaleur entre la surface de la Terre et l’atmosphère selon la loi de Newton du refroidissement est-il affecté.

Plutôt que de faire des spéculations examinons ce que des centaines d’expériences scientifiques et des millions d’heures de retour d’expérience de chauffage domestique ont montré. D’abord considérons les travaux de John Tyndall (1820-1893), un physicien du XIXe siècle qui réalisa un grand nombre d’expériences dans son laboratoire pour tester l’aptitude de divers gaz à bloquer la transmission des rayons infra-rouges qu’il appela à l’époque les « rayons calorifiques ». Il testa par exemple le gaz carbonique jusqu’à une concentration de 80000 ppm, soit 200 fois plus que la teneur actuelle en ce gaz dans l’atmosphère et il conclut ainsi :

« Le gaz carbonique est l’un des plus faibles (feeblest dans le texte de Tyndall) absorbants de la chaleur radiante émise par une source solide. Il est par exemple extrêmement transparent au rayons émis par la plaque de cuivre chauffée à laquelle nous nous référons » (voir le lien en fin de billet).

Tyndall nota aussi qu’aux concentrations atmosphériques le gaz carbonique n’avait aucun effet sur la température de l’air quelle que soit la quantité de « radiations calorifiques » la traversant. Il écrivit : « À travers l’air (…) les ondes de l’éther passent sans absorption, et la température de ces gaz n’est pas sensiblement modifiée par les plus puissantes radiations calorifiques. »

En dépit de ces observations Svante August Arrhenius (1859-1927) spécula 30 ans après ces travaux de Tyndall que le gaz carbonique augmente la température du sol non pas selon la loi de Newton mais selon celle de Stefan-Boltzmann. Pour tester l’hypothèse d’Arrhenius le physicien suédois Knut Ångström (1857-1910) publia en 1900 des expériences qu’il réalisa dans son laboratoire dans un article intitulé « De l’importance de la vapeur d’eau et du dioxyde de carbone dans l’absorption de l’atmosphère« . (Annalen der Physik Bd3. 1900, p720-732). L’expérience d’Angström consistait à remplir un tube de verre avec un gaz contenant du CO2 simulant une colonne d’air en contact avec le sol et atteignant le sommet de l’atmosphère. Il fit varier la teneur en gaz carbonique de moitié puis en la doublant et il fut incapable d’observer un quelconque changement de la température du gaz contenu dans cette colonne de verre quelle que soit l’intensité de la source d’infra-rouges.

Capture d’écran 2018-06-17 à 17.25.24.png

Les observations d’Angström ont été confirmées par des millions d’heures d’utilisation des chauffages domestiques à infra-rouges par les ingénieurs et techniciens de cette discipline. Voici ce qu’ils en disent : « L’énergie infra-rouge se déplace à la vitesse de la lumière sans chauffer l’air qu’elle traverse car les radiations infra-rouges ne sont absorbées par le gaz carbonique, la vapeur d’eau et les autres gaz présents dans l’atmosphère que de manière négligeable. Les appareils de chauffage infra-rouge atteignent les objets présents dans une pièce mais n’affectent en rien l’air contenu dans une pièce. C’est le rayonnement diffus qui en résulte qui fait qu’une personne se sent confortable dans une pièce chauffée par un tel système de chauffage« .

Ainsi ce dont nous disposons est d’une part une somme d’ expérimentations scientifiques et d’autre part les observations du monde réel dans le domaine de l’application des rayons infra-rouges qui démontrent que les radiations IR ne chauffent pas l’air, et pourquoi ? Tout simplement parce qu’il a été démontré depuis la fin du XIXe siècle qu’une molécule de ces gaz composant l’atmosphère absorbent les rayons infra-rouges mais les réémettent tout aussitôt. John Tyndall écrivit aussi : « Selon cette expérience il a pu être prouvé qu’un arrangement moléculaire rendant un gaz un puissant absorbant de radiations calorifiques le rend aussi un puissant émetteur de ces radiations. Ainsi, alors que les atomes des gaz élémentaires de l’atmosphère font qu’ils sont incapables d’émettre de la chaleur radiante ils ont pu être montrés comme des perturbateurs de l’éther environnant« . En d’autres termes – disons « plus modernes » – accroître la teneur en gaz carbonique de l’atmosphère accroît aussi l’émissivité de l’atmosphère. La loi de Stefan-Boltzmann définit la relation entre l’atmosphère et l’espace et un paramètre de cette loi décrit l’émissivité de l’atmosphère. Il a depuis longtemps été démontré qu’une constante d’émissivité élevée permet à la matière d’émettre la même quantité d’infra-rouges à une température plus basse. L’hypothèse de l’effet de serre suggère au contraire qu’accroître l’émissivité de l’atmosphère en ajoutant des « gaz à effet de serre » aura l’effet inverse et nécessitera alors que l’atmosphère soit plus chaud afin d’émettre la même quantité de rayonnement infra-rouge vers l’espace.

Comment peut-on ne pas comprendre que certaines personnes soient sceptiques au sujet d’une théorie qui d’une part utilise la mauvaise loi de la physique pour définir la relation entre l’atmosphère et l’espace extra-planétaire et qui d’autre part applique la loi de Stefan-Boltzmann à l’inverse de sa définition première !

Traduction aussi fidèle que possible d’un article écrit par Carl Brehmer, ingénieur thermicien dans l’industrie du chauffage domestique, en 2012 et paru sur le site de John Sullivan. Il est parfois salutaire de réexaminer les résultats scientifiques acquis il y a près de 150 ans.

De récentes publications scientifiques confirment les travaux de Tyndall qui ne disposait pas de thermomètre sensible au centième de degré. Par exemple un récent article du docteur B. M. Smirnov (lien) démontre que ce qui est suggéré dans l’article de Brehmer, à savoir la réémission du rayonnement infra-rouge par les molécules des gaz constituant l’atmosphère conduit à un élargissement des bandes d’absorption de ces derniers et que par conséquent un doublement de la teneur en gaz carbonique dans l’atmosphère provoquerait un accroissement d’au plus 0,4 °C au sol. Or comme la quantité totale du CO2 atmosphérique produite directement par l’activité humaine n’est que de 5 % du total de ce CO2 la contribution d’origine humaine dans l’évolution récente de la température de la planète Terre n’est que de 0,02 °C ! Il n’y a pas lieu de s’alarmer plus avant car il y a encore de la marge pour tous être grillés comme des toasts comme le clamait il y a quelques années la Directrice du FMI Christine Lagarde.

Tyndall J., Fragments of Science : A series of Detached Essays, Addresses ans Reviews, (1879) disponible sur le site http://www.gutenberg.org

B.M. Smirnov, Journal of Physics D, doi : 10.1088/1361-6463/aabac6

À la recherche de l’origine du champ magnétique terrestre

Capture d’écran 2017-08-08 à 20.31.54.png

Les spécialistes de la Terre savent à peu près comment est constitué notre planète sous la croute terrestre, le plancher des vaches, mais dans le détail c’est l’inconnu et il n’y a pas vraiment d’outils pour arriver à expliquer ce qui se passe intimement à 1000 voire 10000 kilomètres de profondeur. L’hypothèse de l’existence du champ magnétique terrestre est que la différence de flux de magma plus ou moins visqueux lors de la rotation de la Terre provoquerait un effet dynamo mais ce n’est qu’une hypothèse et les études sismiques n’apportent pas d’informations précises selon la profondeur sur ces flux de matière. Pour tenter d’y voir un peu plus clair il y a une approche consistant à déterminer l’origine des neutrinos d’origine terrestre, plus précisément les antineutrinos électroniques. Ces particules virtuellement sans masse sont issues de la fission de l’uranium (235, et 238 après capture d’un neutron), du thorium également après capture d’un neutron et enfin du potassium-40, les trois constituants radioactifs naturels de la Terre. Dans la suite de ce texte le terme « neutrino » sera seulement utilisé bien qu’il s’agisse d’une erreur de langage.

Détecter ces neutrinos est déjà une opération connue et mise en place dans le laboratoire sous-terrain du Gran Sasso en Italie et du Kamiokande au Japon. Cette détection repose sur l’analyse des rayonnements provoqués par la collision entre un neutrino et un noyau atomique, un évènement rare mais observable. Or pour explorer les mouvements du magma qui se trouve sous nos pieds il faudrait pouvoir déterminer l’origine exacte de ces neutrinos dans les profondeurs terrestres. Pour l’instant il n’existe aucun système de détection capable de préciser avec certitude la direction d’origine des neutrinos. De plus la situation est compliquée pour l’observateur par le fait que d’autres neutrinos proviennent du Soleil qui en émet un million de milliards de milliards chaque seconde dans toutes les directions et donc aussi vers la Terre, qu’il existe également des neutrinos provenant du centre de notre galaxie et enfin des neutrinos provenant des réacteurs des centrales nucléaires.

Capture d’écran 2017-08-08 à 20.45.31.png

Fort heureusement tous ces neutrinos n’ont pas la même énergie et ceux émis par les centrales nucléaires peuvent être localisés puisque l’on sait où elles se trouvent et avec quel type de combustible elles fonctionnent. Une centrale nucléaire d’une puissance thermique nominale de 4000 MW ne produit en réalité que 1200 MW électriques (le rendement déplorable d’une machine thermique classique) mais la réaction de fission à l’intérieur du réacteur a en réalité une puissance de 4185 MW thermique car 185 MW d’énergie de fission (4,5 % du total) sont dissipés sous forme de neutrinos qui partent dans la nature et dans toutes les directions. Pour détecter les neutrinos issus des profondeurs de la Terre afin de se faire une idée des mouvements de matière à l’origine du champ magnétique terrestre il fallait trouver un système de détection plus sélectif que ceux du Gran Sasso et du Kamiokande car il est admis que le flux continu de chaleur à la surface de la Terre représente 47 TW ou encore 47 millions de mégawatts dont une grande partie (40 %) provient de la chaleur dégagée par les fissions de l’uranium, du thorium et du potassium terrestres. En réalité la Terre est un gros réacteur nucléaire et nous vivons tous dessus sans protection spéciale et sans être malades pour autant …

Trois scientifiques partageant leurs activités entre le CERN, le Kamiokande (KEK) et le MIT ont donc proposé un nouveau type de détecteur qui serait susceptible de déterminer avec une précision satisfaisante la direction d’origine des neutrinos terrestres et leur énergie pour éventuellement réunir quelques éléments d’information sur les mouvements massifs de magma plus ou moins liquide dans les profondeurs de la Terre autour du noyau solide constitué de nickel et de fer. J’avoue que je ne suis pas du tout spécialiste de ce domaine de la géophysique mais il me paraît intéressant de noter que la curiosité humaine permettra peut-être d’en savoir un petit peu plus sur ce qui se passe sous nos pieds alors que certains envisagent d’aller coloniser la planète Mars …

Source et illustration : Nature, doi : 10.1038/ncomms15989

La quête du WIMP, un vrai Graal !

Capture d’écran 2017-05-23 à 19.06.56.png

Sous le Gran Sasso, une montagne des Abruzzes traversée par un tunnel autoroutier, se trouve un laboratoire très particulier qui traque les neutrinos venant de l’Univers et qui vient en outre de se doter d’une équipement particulier pour également partir à la recherche des WIMPs. Si vous avez entendu parler de neutrinos c’est déjà difficile à comprendre puisque ce sont des particules qui se déplacent dans l’Univers à la vitesse de la lumière et capables de traverser la Terre sans que leur trajectoire soit déviée ni que leur vitesse diminue … difficile à imaginer quand on est, comme votre serviteur, un béotien dans le domaine de l’astrophysique. Les neutrinos sont également produits par les centrales nucléaires mais rassurez-vous quand vous aurez terminé la lecture de ce billet plus d’un milliard de neutrinos venus de l’Univers tout entier auront allègrement traversé votre corps sans que votre peau ait pour autant changé de couleur.

Quant aux WIMPs c’est une autre histoire puisqu’il s’agit selon la théorie cosmologique actuelle d’une particule super-massive qui constituerait ce que les spécialistes appellent la « matière noire froide » que, par définition, l’on ne voit pas. Cette matière noire a été inventée par les astrophysiciens à l’aide d’équations très compliquées pour tenter d’expliquer certaines anomalies de la relativité générale formulée par Albert Einstein. Selon eux et en résumé très bref, la matière chaude – celle que l’on peut observer – aurait du, depuis le big-bang, se diluer or il n’en est rien. L’existence des WIMPs (Weakly Interacting Massive Particles) répondrait à cette question qui est une conséquence de la théorie du Big-Bang.

Capture d’écran 2017-05-23 à 09.51.38.png

Au Laboratoire du Gran Sasso toutes les précautions ont été prises pour ne pas observer n’importe quoi. Le site se trouve sous 1400 mètres de roche, le détecteur constitué d’une cuve contenant du krypton liquide bourrée de photo-détecteurs est lui-même plongé dans une piscine d’eau ultra-pure elle-même bourrée de détecteurs et à l’extérieur de cet ensemble se trouvent encore toutes sortes d’instruments qui permettront au final de détecter un ou deux WIMPs par an si tout se passe bien et si naturellement les WIMPs existent réellement. Quand un WIMP entrera en collision avec un atome de krypton celui-ci émettra un photon et la détection de ce dernier, sans ambiguïté, confirmera l’existence de cette particule super-massive de peut-être 10000 fois la masse d’une noyau d’hydrogène. Ça laisse rêveur … Pour ma part je laisse aux astrophysiciens le soin de rêver car il m’est déjà difficile de croire en la véracité de la théorie du Big-Bang … Toujours est-il que le détecteur de WIMPs du Gran Sasso (Xenon1T) n’a encore rien vu après un peu plus d’un mois d’observations interrompues par un tremblement de terre en ce début d’année 2017. Si dans 5 ans pas la queue d’un WIMP n’a pu être détectée les physiciens devront revoir leur copie.

Capture d’écran 2017-05-23 à 09.50.25.png

Source : arxiv.org/pdf/1705.06655v1.pdf, illustrations INFN-Laboratori Nazionali del Gran Sasso. Illustrations : sphère contenant du krypton liquide, détecteurs de photons, réservoir d’eau dans lequel se trouve la sphère de krypton.

Les premières ondes gravitationnelles détectées

Capture d’écran 2016-02-11 à 17.39.35.png

Cent ans après les équations de la relativité générale écrites par Albert Einstein qui prédisaient l’existence d’ondes gravitationnelles, cette situation particulière est maintenant vérifiée. Selon Einstein, l’espace-temps peut être perturbé par un évènement gravitationnel majeur. Cet évènement cosmique a été provoqué par le flirt très rapproché entre deux trous noirs tournant l’un autour de l’autre pour finalement fusionner et relacher une gigantesque quantité d’énergie sous forme gravitationnelle puisque les trous noirs ne peuvent pas rayonner d’énergie sous forme électromagnétique. Pourtant Einstein lui-même ne croyait pas trop en l’existence des trous noirs, ces objets super-massifs qu’on ne peut pas voir puisqu’ils sont tellement denses et leur champ gravitationnel tellement intense que la lumière ne peut s’en échapper.

Il y a 50 ans des physiciens du CalTech imaginèrent un instrument susceptible de détecter ces ondes mais les complications technologiques firent que le projet faillit être abandonné à de nombreuses reprises. En bref, les ondes gravitationnelles (si elles existent) doivent perturber le cheminement de la lumière dans ce qu’on appelle un interféromètre mais pas n’importe lequel puisqu’il s’agit de deux tunnels sous vide de 4 kilomètres de long chacun. Pendant longtemps le gros souci fut de maîtriser les vibrations parasites des détecteurs qui doivent être capables de mesurer une variation infinitésimale du trajet que parcourt la lumière et du temps qu’il lui faut pour le parcourir sous l’effet d’une onde gravitationnelle, la modification de l’espace-temps prédite par Einstein. L’unité de mesure de cette variation est le diamètre du noyau d’un atome d’hydrogène !

Capture d’écran 2016-02-11 à 17.38.20.png

Entre 2002 et 2010 les détecteurs interférométriques LIGO, l’un situé dans l’Etat de Washington (Hanford) et l’autre en Louisiane (Livingston), ne mesurèrent rien du tout, ils étaient désespérément « silencieux ». Il fallut améliorer substantiellement les détecteurs d’une complexité difficile à imaginer pour un non spécialiste (comme votre serviteur) pour qu’enfin, le 14 septembre dernier, les deux interféromètres enregistrent le même signal avec un écart de 7 millisecondes. Pourquoi deux détecteurs ? Tout simplement pour éliminer tout signal fortuit. Le vrai signal doit être coïncidant entre les deux appareils LIGO (Laser Interferometer Gravitational-wave Observatory). Le signal détecté en septembre dernier, compte tenu de son amplitude laissa les astrophysiciens du monde entier plutôt sceptiques.

Il fallut plusieurs longs mois pour l’analyser et finalement confirmer que pour la première fois une onde gravitationnelle avait bien été détectée. La probabilité pour que ce signal ne soit pas fortuit est mesurée en « sigmas » : les scientifiques sont certains à 99,9999 % qu’il s’agit bien d’une onde gravitationnelle relatant la fusion de deux trous noirs quelque part dans l’Univers … puisque ces scientifiques pensent que l’évènement gravitationnel aurait eu lieu il y a 1,5 milliard d’années dans l’hypothèse où les ondes gravitationnelles se déplacent à la vitesse de la lumière, une hypothèse qui n’a pas pour le moment été infirmée puisqu’elle est conforme à la théorie de la relativité générale.

Comme il existe des dizaines de milliards de galaxies et probablement autant de trous noirs dans l’Univers, depuis quelques mois les LIGOs détectent de nombreux signaux qui sont toujours en cours d’analyse. Le Scoop d’hier n’en est pas vraiment un puisque cet évènement eut lieu il y a très longtemps mais il s’agit d’un scoop qui démontre l’ingéniosité des scientifiques et confirme le génie d’Einstein …

Source et illustrations : physics.aps.org/articles/v9/17

Note : la déformation du trajet lumineux dans l’interféromètre est exprimée en mètres soit ici mille milliardième de milliardième de mètre (10 à la puissance moins 21).

Le principe d’incertitude d’Heisenberg appliqué au changement climatique

Heisenbergbohr

En 1927, le physicien allemand Werner Heisenberg définit ce qu’on appelle en mécanique quantique le principe d’incertitude. Ce principe fondamental en physique stipule qu’on ne peut pas connaître avec certitude simultanément deux grandeurs physiques caractérisant une particule avec précision car ces deux grandeurs, la position et le moment (voir ci-après), sont liées. Ce principe a été largement confirmé par la mécanique quantique et il faut préciser pour une bonne compréhension de la suite de ce billet que pour une particule, par exemple un photon défini par une fonction d’onde, le moment de cette particule est défini comme un opérateur de cette fonction d’onde.

C’est en se basant sur ce principe d’incertitude que des petits malins, obsédés par le CO2, ont mis en avant le principe d’incertitude d’Heisenberg, naturellement sans trop savoir de quoi ils parlaient, pour décréter que les photons émis par une molécule d’eau, d’azote, d’oxygène ou de gaz carbonique de l’atmosphère dans la gamme des longueurs d’onde infra-rouges pouvaient très bien se propager dans n’importe quelle direction. Puisqu’un photon thermique provenant d’un objet froid ne sait pas qu’il n’est pas supposé chauffer un objet plus chaud et vice et versa puisqu’un objet chaud ne sait pas qu’il ne peut pas être réchauffé par les photons émis par un objet plus froid, la déduction de cette incertitude est qu’un objet froid peut parfaitement, par simple émission de photons thermiques, chauffer un objet plus chaud. C’est ce que les climatologues appellent l’effet de serre radiatif et ils s’appuient sur cette affirmation pour justifier le changement climatique d’origine humaine. C’est le principe d’incertitude d’Heisenberg revu et corrigé pour satisfaire la théorie de l’effet de serre ! Cette théorie est en contradiction avec les fondements même de la mécanique quantique en ce sens qu’elle nie l’ensemble de la physique, depuis la physique corpusculaire, l’électromagnétisme, la thermodynamique et y compris la mécanique ondulatoire. Si un photon n’a pas de masse mais est décrit par une fonction d’onde il est toujours défini par un moment :

p = E/c = h/λ

où E est l’énergie du photon, lambda sa longueur d’onde et c et h étant respectivement la vitesse de la lumière et la constante de Planck. L’énergie du photon est proportionnelle à sa fréquence v (lettre grecque nu) et inversement proportionnel à sa longueur d’onde λ (lettre grecque lambda) :

E = hc/λ = hv

Or là où le bât blesse c’est d’affirmer que des photons thermiques (infra-rouges) provenant d’un corps froid – les hautes couches de l’atmosphère – peuvent réchauffer les plus basses couches de l’atmosphère et la surface de la Terre car le moment des photons issus des hautes couches de l’atmosphère est toujours inférieur à celui des photons émis par le sol ou les basses couches de l’atmosphère qu’il y ait intervention ou non du CO2 dans cette situation physique liée au gradient adiabatique de l’atmosphère. Prétendre qu’il peut exister un effet de serre provoqué par le CO2, le coupable honni par les spécialistes du dérangement climatique, est donc en violation directe des lois physiques les plus fondamentales, c’est nier les travaux des plus grands physiciens du XXe siècle.

On comprend dès lors le niveau d’imposture de cette théorie de l’effet de serre supposé « déranger » le climat car elle jette aux oubliettes tous les travaux des physiciens comme Einstein, Dirac, Schrödinger, De Broglie … sans lesquels on en serait encore à la théorie de l’éther ou de la phlogistique c’est-à-dire un incroyable retour en arrière de plusieurs siècles. C’est tout simplement ce que veulent les climato-alarmistes, une régression généralisée de l’humanité dans la plus pure ligne d’un Rousseau ou d’un Malthus. C’est donc extrêmement grave que la propagande réchauffiste soit basée sur une aberration scientifique conduisant des personnalités à des déclarations tonitruantes directement issues de cette imposture de l’effet de serre provoqué par le CO2 que je cite ici :

« Nourrir un enfant affamé c’est exacerber le problème de la population mondiale » (Lamont Cole, environnementaliste et écrivain)

« Nous ne pouvons pas laisser d’autres pays avoir le même nombre de voitures, le même niveau d’industrialisation que ceux des Américains. Nous avoir le devoir de stopper le développement des pays du Tiers Monde à son niveau présent » (Michael Oppenheimer, Environmental Defense Fund)

« Le développement durable nécessite une mise en place délibérée de pauvreté, de consommation réduite des ressources et doit préciser des niveaux de contrôle de mortalité » (Maurice King, professeur)

« Les technologies complexes de quelque nature que ce soit sont une insulte à la dignité humaine. Ce serait un désastre à brève échéance si on trouvait une source d’énergie propre, peu coûteuse et abondante » (Amory Lovins, Rocky Mountain Institute)

« La recherche sur l’énergie de fusion est la pire des choses qui puisse arriver pour la planète » (Jeremy Rifkin, Greenhouse Crisis Foundation)

« Le plus grand problème pour la planète ce sont les gens : ils sont trop nombreux, et trop nombreux à vouloir se développer économiquement » (Sir James Lovelock interviewé par la BBC)

« Les êtres humains, en tant qu’espèce animale, n’ont pas plus de dignité que les limaces » (John Davis, éditeur du journal Earth First)

À méditer en cette période estivale, ça remonte le moral …

Lire ou relire https://en.wikipedia.org/wiki/Uncertainty_principle illustration Werner Heisenberg et Niels Bohr (Wikipedia)