Etat des recherches sur la maladie d’Alzheimer

Alois_Alzheimer_003

Alois Alzheimer (Wikipedia)

Comme on ne peut pas procéder à des expérimentations directes sur les êtres humains, la mise au point d’une lignée de souris transgéniques développant tous les symptômes de la maladie d’Alzheimer (AD) a largement contribué à préciser le mécanisme ou plutôt maintenant « les » mécanismes d’apparition de cette maladie, car il y a une succession d’étapes dans le développement de cette maladie. On sait par exemple que le cerveau produit naturellement la protéine amyloïde beta et qu’il lui faut environ 4 heures pour l’éliminer. Si ce processus d’élimination vient à s’allonger alors un fragment de cette protéine peut s’accumuler et former des dépôts qui au final tuent les neurones. Le processus d’élimination des déchets du cerveau utilise la voie dite glymphatique qui filtre le liquide céphalo-rachidien et relargue les métabolites et les déchets indésirables dans le liquide interstitiel pour être ensuite pris en charge par la circulation sanguine. Ce système ressemble un peu au rôle du système lymphatique pour « nettoyer » d’autres organes. Avec les souris transgéniques triplement modifiées génétiquement pour reproduire les trois symptômes de la maladie d’Alzheimer (3xTg-AD), à savoir surproduire le précurseur de la protéine amyloïde beta, la preseniline et la protéine tau, quand on anesthésiait ces souris et selon la position dans laquelle on les laissait pour dormir, l’élimination du fragment 46 de la protéine amyloïde s’effectuait presque normalement si elles dormaient sur le côté contrairement aux positions sur le ventre ou sur le dos. Il ne s’agit pas du tout d’une découverte anecdotique : l’élimination des protéines déchets a été suivie par imagerie (IRM) du cerveau des souris. Ce résultat rejoint les études récentes relatives à la qualité du sommeil dans le développement des maladies neurodégénératives.

Ces mêmes souris ont permis d’y voir un peu plus clair au sujet de l’influence du métabolisme des acides gras dans le cerveau sur l’apparition de la maladie. Cette dernière étude tout à fait remarquable parue dans le dernier numéro de la revue Cell Stem Cell a montré que parallèlement aux autres symptômes développés par les souris transgéniques il y avait une accumulation anormale de triglycérides. En soi il ne s’agit pas d’un scoop scientifique puisqu’Alois Alzheimer lui-même avait décrit cet état de choses en 1907 en colorant des coupes de cerveau de patients morts de la maladie. Un ensemble d’études épidémiologiques a permis d’établir une relation de cause à effet entre l’apparition de la maladie d’Alzheimer (AD) et des conditions métaboliques périphériques dégradées comme la résistance à l’insuline, l’obésité et les troubles du métabolisme des lipides, ces trois désordres étant souvent associés. Avec ces souris transgéniques il a été possible de déterminer la nature des triglycérides s’accumulant sous forme de gouttelettes au niveau de l’épendyme, le tissu glial sous-jacent au cortex préfrontal, entre autres régions du cerveau, en contact avec la cavité ventriculaire baignée de liquide céphalo-rachidien, interface justement impliqué dans l’élimination des déchets cérébraux dont il était fait mention plus haut.

Gray667

Organisation du système glymphatique (Wikipedia)

L’astuce de l’approche expérimentale choisie dans cette étude a consisté à mettre en œuvre une technique de désorption au micron près à l’aide d’un laser directement sur les coupes de tissu cérébral couplée à un spectrographe de masse. Il n’existe en effet pas de techniques suffisamment spécifiques pour déterminer la nature au niveau cellulaire des lipides accumulés sous forme de micro-gouttelettes.

L’enrichissement pathologique en acide oléique des triglycérides ainsi déterminés a été attribué à une perturbation du métabolisme lipidique cérébral. La situation semble donc se clarifier un peu car ce dérèglement du métabolisme des triglycérides cérébraux semble être l’un des signaux les plus précoces de l’apparition de la maladie d’Alzheimer. Cette accumulation de lipides à cet endroit précis du cerveau contribue à l’empoisonnement progressif du cerveau conduisant au développement de la maladie. La figure tirée de l’article paru dans Cell Stem Cell (voir le lien) représente des coupes de tissu cérébral humain au niveau de la zone sous-ventriculaire du lobe frontal. La lumière sur la gauche des clichés est le ventricule. Les points rouges sont les accumulations de gouttelettes de triglycérides anormalement enrichis en acide oléique (CTRL : contrôle, AD : Alzheimer).

Capture d’écran 2015-09-09 à 18.21.42

Source : Hamilton et al., Aberrant Lipid Metabolism in the Forebrain Niche Suppresses Adult Neural Stem Cell Proliferation in an Animal Model of Alzheimer’s Disease, Cell Stem Cell (2015), http://dx.doi.org/10.1016/j.stem.2015.08.001

Article aimablement communiqué par le Docteur Karl Fernandes de la Faculté de Médecine de l’Université de Montréal.

Vieillissement et quotient intellectuel, un drôle d’amalgame …

Capture d’écran 2015-09-07 à 15.11.03

L’épidémiologie génétique, c’est assez nouveau, et ça se pratique avec les jumeaux hétérozygotes autant que faire se peut. En effet, les différences éducationnelles, familiales et sociologiques sont lissées pour ces jumeaux alors qu’ils sont génétiquement différents. S’il y a alors des différences de QI ou de longévité elles ne sont la résultante que de la génétique. Dans ce contexte une étude récente vient apporter quelques arguments, certes ténus, sur l’influence de l’intelligence et du niveau éducationnel sur la longévité des individus. Quand on parle d’allongement de l’espérance de vie, ce n’est qu’une donnée statistique qui ne peut pas être appliquée à des cas individuels, en d’autres termes ce n’est parce cette espérance de vie augmente qu’on peut tous espérer vivre en accord avec ces données statistiques. L’étude de (faux) jumeaux est donc une précieuse source de renseignements pour cerner la relation entre l’intelligence ou le niveau intellectuel et l’espérance de vie individuelle.

L’étude a été réalisée sur trois échantillons de jumeaux. Le premier échantillon était consitué de 377 jumeaux dont 201 homozygotes nés entre 1917 et 1927 et enregistrés par l’administration des anciens combattants américaine (VA). Le deuxième lot comprenait 790 hommes et femmes dont au moins un des jumeaux était déjà décédé et étant nés avant 1939 et comprenant 100 homozygotes. Enfin le troisième élément de l’étude était constitué de 784 paires de jumeaux danois (305 paires d’homozygotes) nés entre 1920 et 1930. Tous, les survivants tout au moins, ont été soumis à des tests cognitifs et leur santé a été minutieusement contrôlée. Les tests cognitifs consistaient à mesurer la « fluidité » verbale, des calculs mentaux simples et des tests de mémoire à court et long terme. L’étude la mieux documentée fut l’étude portant sur les jumeaux danois.

Il est apparu que l’espérance de vie était allongée proportionnellement aux capacité intellectuelles et au niveau d’éducation scolaire et post-scolaire. Mais il y avait une influence génétique qui se superposait et qui a pu être mise en évidence avec les jumeaux hétérozygotes en agrégeant les trois études :

Capture d’écran 2015-09-07 à 15.03.58

Dans cette figure où MZ signifie homozygote et DZ hétérozygote, on peut difficilement comprendre que le niveau intellectuel puisse avoir une influence sur la longévité (life span) puisque pour les hétérozygotes chez qui les différences socio-culturelles sont supposées inexistantes on voit à l’évidence que la dispersion des cas étudiés n’est due qu’aux différences génétiques. Alors seules les différences génétiques influeraient sur la longévité … Il ne faut donc pas tirer de conclusions hâtives et prétendre que si on est plus « intelligent » ou mieux éduqué on vit plus longtemps. La seule remarque qu’on puisse éventuellement faire après avoir lu cette étude est l’aptitude personnelle à mieux gérer son corps et son cerveau car la rapidité du vieillissement est le résultat d’un ensemble de paramètres sur lesquels le patrimoine génétique influe indéniablement …

Inspiré d’un article paru dans The Guardian et : http://ije.oxfordjournals.org/content/early/2015/07/24/ije.dyv112.full.pdf+html

En toute logique il faudrait aussi gérer les déchets radioactifs du charbon …

Capture d’écran 2015-09-08 à 19.46.43

Les sols sont naturellement radioactifs et comme le charbon est un dépôt naturellement présent dans le sol ce dernier est également radioactif. Il n’y a rien d’étonnant à cela car d’ailleurs l’eau de mer est également radioactive. Mais quand on brûle du charbon comme autrefois dans les locomotives à vapeur et maintenant dans de nombreuses centrales électriques comme tout près de la France c’est-à-dire en Allemagne, le problème de la radioactivité naturellement présente dans le charbon devient préoccupant. Pratiquement toutes les unités de production d’électricité sont munies de dépoussiéreurs électrostatiques des fumées afin de réduire au maximum l’émission de micro (nano) particules dans l’atmosphère. Les poussières sont stockées tant bien que mal afin d’éviter si possible toute contamination de personnes et accessoirement de l’environnement. Ces poussières contiennent par exemple du sélénium ou encore de l’arsenic mais plus préoccupant elles contiennent aussi des isotopes radioactifs provenant de la fission naturelle de l’uranium 235 et du thorium 232 qui ne sont pas très bons pour la santé, je cite : radium 228, radium 226 et plomb 210. Une récente étude parue dans Environment Science and Technology a montré que la radioactivité présente dans le charbon se retrouvait concentrée d’un facteur 10 dans les cendres par rapport à la teneur originale dans le charbon et atteignait jusqu’à six fois la radioactivité naturelle des sols. Aux USA ces cendres sont stockées dans des bassins et humidifiées afin de ne pas se disperser au moindre souffle d’air. Or il n’existe aucune régulation relative à la sureté de ces bassins et n’importe quelle fuite dans le milieu environnant pourrait être une catastrophe.

Pourquoi relater une telle étude, mais tout simplement pour la rapprocher de la situation actuelle dans la région contaminée par l’accident de la centrale de Fukushima-Daiichi qui a fait et fait encore couler beaucoup d’encre. Il faut relativiser les faits. Les cendres issues des centrales électriques présentent en moyenne une radioactivité comprise entre 200 et 300 Bq/kg. Pour rappel la radioactivité naturelle moyenne aux USA est de 50 Bq/kg soit environ 10 mSv/an. Mais parler de radioactivité en termes de sieverts brouille la réalité et les esprits car le sievert est une dose reçue exprimée en Joules alors que les becquerels sont la véritable mesure de la radioactivité existante. Pour encore relativiser ce problème, notre corps est radioactif en raison de la présence naturelle de l’isotope 40 du potassium qui représente environ 60 Bq/kg soit une douzaine de mSv/an, dose à laquelle nous sommes soumis toute notre vie. Si on ajoute la radioactivité naturelle à laquelle nous sommes soumis quotidiennement, on atteint bon an mal an un peu plus de 20 mSv.

Dans les environs de la centrale japonaise, on a autorisé les habitants de la ville de Nahara à réintégrer leur domicile définitivement car la radioactivité résiduelle mesurée correspond à une dose légèrement inférieure à 20 mSV/an … pas de quoi être alarmiste comme l’est le dénommé Jan Vande Putte de Greenpeace qui a déclaré « le niveau de contamination est très variable dans cette localité et selon les maisons, ce qui risque de créer des tensions entre les personnes ». On n’en attendait pas plus d’un organisme comme Greenpeace dont la mauvaise foi a dépassé les limites de l’acceptable, car il n’y avait franchement pas matière à faire un quelconque commentaire au sujet de ce non-évènement. Illustration : Le Lac Hyco (Caroline du Nord) près de cette centrale électrique au charbon est un bassin de rétention de cendres, crédit Duke University. 

Sources : dépêche ATS 05.09.2015 11:20, DOI: 10.1021/acs.est.5b01978

Les Anglais se préparent déjà au refroidissement climatique !

Capture d’écran 2015-09-03 à 16.49.57

À trente-trois mètres sous terre, dans un ancien abri datant de la seconde guerre mondiale, la société ZeroCarbonFood vient de commencer la production de salade pour les restaurants londoniens.

Capture d’écran 2015-09-03 à 22.29.14

L’un de ses fondateurs, le chef étoilé (Michelin) Michel Roux, s’en félicite car en moins de trois heures après la récolte, les salades et les herbes aromatiques sont acheminées dans les restaurants et une heure plus tard, le basilic, les pousses de soja et le persil sont dans l’assiette des fins connaisseurs gastronomes de la City. On se trouve dans l’univers totalement aseptisé et informatisé d’une ferme verticale sans terre car toute les cultures sont hydroponiques. Les rendements par mètre carré sont multipliés par six en comparaison du moindre lopin de terre en surface, tout y est contrôlé soigneusement, l’ambiance y est quasiment stérile et tout ça fonctionne indépendemment des saisons.

Capture d’écran 2015-09-03 à 16.50.54

De quoi ont besoin les plantes ? De sels minéraux, d’un peu d’eau et de gaz carbonique. Dans les conditions optimisées par la société Growing-Underground, produire une salade demande 5 fois moins d’eau qu’en « surface » et il n’y a pas de pertes, pas d’insectes, pas de nématodes susceptibles d’attaquer les racines ou de larves d’un quelconque insecte, donc pas non plus besoin de pesticides ! La société co-fondée par Michel Roux a fait appel au crowdfunding et bien malins sont ceux qui ont osé investir quelques livres dans ce projet car il est promis à un bel avenir ! Dans le même style mais en surface dans la banlieue de Londres la société GrowUp a trouvé l’astuce de combiner de l’aquaculture avec l’hydroponie pour récupérer une partie des sels minéraux et des excréments des poissons pour produire des plantes :

Capture d’écran 2015-09-03 à 16.52.01

Sur le plan énergétique, l’éclairage est assuré par des diodes, la qualité de l’eau est contrôlée à la ppm près ainsi que l’hygrométrie et la température, le tout piloté par un ordinateur relié à des sondes et des analyseurs en temps réel de l’ensemble des paramètres permettant une optimisation des rendements que l’on ne peut jamais atteindre en surface dans un espace ouvert. Cette technologie est déjà courante en Israël, se développe rapidement dans les Etats semi-désertiques des USA, y compris en Californie, Etat où les ressources en eau ont toujours été limitées, et enfin au Japon dans les zones touchées par l’accident de la centrale nucléaire de Fukushima-Daiichi pour une toute autre raison : la terre a été contaminée et la culture hydroponique permet déjà de rétablir une activité traditionnelle de maraîchage dans cette région.

On peut dire que les Anglais se préparent d’ors et déjà au refroidissement climatique qui nous est promis par les astrophysiciens mais ce n’est pas une anecdote que de dire qu’en Islande on cultive des tomates et mêmes des bananes toute l’année sous serre car l’eau chaude est gratuite ainsi que l’électricité … Dans dix ans peut-être bien qu’EDF mettra l’eau chaude des centrales nucléaires systématiquement et gratuitement à la disposition de maraîchers pour produire des légumes en hydroponie, on a toujours le droit de rêver !

Source : Bloomberg

Liens : http://growing-underground.com , http://growup.org.uk

Chez les oiseaux aussi « les ennemis des ennemis sont des amis »

440px-Northern_Goshawk_ad_M2

Dans la nature on a parfois besoin d’un plus gros que soi ! C’est ce que vient de montrer une étude dirigée par le Département de Biologie de l’Université du Nevada à Reno. Cette étude réalisée pendant 3 années sur le terrain, en Arizona, avait pour but de déterminer l’interrelation entre une population de faucons et celle d’oiseaux-mouches.

800px-Archilochus-alexandri-003

Près de 350 nids d’oiseaux-mouches (Archilochus alexandri) furent suivis méticuleusement selon leur éloignement des nids de faucons (Accipiter gentilis). Il est apparu contrairement à ce que l’on pourrait penser que les chances de survie des oiseaux-mouches sont supérieures à proximité ou dans le « territoire » des faucons pour une raison très simple, les oiseaux-mouches ne constituent pas une proie de choix pour les faucons. Par contre les faucons chassent les prédateurs des oiseaux-mouches, serpents, rongeurs mais aussi et surtout les geais, principaux pilleurs des nids de ces oiseaux-mouches. Les oiseaux-mouches choisissent d’établir leur nid dans le champ de vision des faucons quand ils sont à l’affut près de leur aire. Plus les nids des oiseaux-mouches sont éloignés de l’aire du faucon, plus les chances de survie sont faibles.

Mexican_Jay_Aphelocoma_wollweberi_3

Les geais (Amphelocoma wollweberi) sont chassés par les faucons. C’est un peu la stratégie adoptée par les humains selon l’adage « les ennemis de mes ennemis sont mes amis ». L’illustration ci-dessous schématise les chances de survie des oiseaux-mouches en fonction de la distance qui sépare leur nid de l’habitat du faucon ainsi que de la hauteur de ce dernier :

Capture d’écran 2015-09-07 à 10.10.34

Cette stratégie de protection par un prédateur plus grand que soi est adoptée aussi par d’autres oiseaux comme l’oie des neiges dans les régions arctiques qui se mettent à l’abri de leur prédateur principal, le renard, en nichant dans le territoire de la chouette arctique qui a pour vicieuse habitude d’attaquer les renards …

Sources :

http://advances.sciencemag.org/content/advances/1/8/e1500310.full.pdf 

http://icb.oxfordjournals.org/content/44/2/119.full .

Comment le lombric résiste aux poisons des feuilles mortes

Capture d’écran 2015-09-05 à 16.10.02

On estime que 35 milliards de tonnes de feuilles d’arbres tombant au sol chaque année sont recyclées dans les sols. Ça fait beaucoup de carbone et parmi les mécanismes biologiques du recyclage il y a la microfaune des sols qui intervient activement et en particulier les vers de terre. Mais comment les vers de terre peuvent-ils résister à toutes les substances toxiques d’auto-défense que contiennent les feuilles des arbres, des arbustes et des buissons. Tous les végétaux ont en effet mis au point des mécanisme de protection contre les prédateurs et ce sont la plupart du temps des polyphénols toxiques qui peuvent être très abondants dans les feuilles, jusqu’à 25 % du poids sec. En toute logique les feuilles mortes ne devraient être dégradées que par des microorganismes équipés pour résister aux polyphénols. La question qui intriguait les biologistes était l’aptitude des vers de terre à s’en donner à cœur joie dans le compost sous des épaisseurs de feuilles mortes qui relarguent jusqu’à 200 kilos de tannins et autres flavonoïdes par hectare. Il a fallu la sagacité exemplaire d’une équipe anglo-allemande pour finir par comprendre pourquoi et comment le lombric survivait à ces polyphénols.

Certes il n’y a pas que des lombrics dans les feuilles en décomposition mais on peut imaginer que toutes sortes de larves d’insectes ont développé un mécanisme de défense similaire à celui du ver de terre. Cependant ce qui a été découvert est unique aux lombrics. Il s’agit d’une molécule aux propriétés détergentes puissantes qui empêche les polyphénols de se lier aux protéines solubles puis de les rendre insolubles avec les dégâts facilement imaginables que peut occasionner ce processus dans un organisme vivant. Il s’agit d’un d’un acide di-alkyl-furane-sulfonique unique aux lombrics identifié par les méthode classiques d’analyse d’extraits du tube digestif du ver sans aucune idée préconçue en réalisant ce que l’on appelle dans le jargon scientifique une recherche métabolomique, en d’autres termes une identification à l’aide machines presque automatiques de tout ce qui se trouve d’identités chimiques dans un échantillon de n’importe quel fluide biologique. Ce composé jusqu’alors inconnu a été appelé une drilodéfensine. Je dois avouer que j’ignore le pourquoi et le comment d’un tel mot mais les biologistes aiment beaucoup donner un nom à un composé chimique dont le nom scientifique est souvent rebutant comme on peut le constater.

Plus le lombric est exposé à des polyphénols comme par exemple des tannins, plus il sécrète uniquement dans son tube digestif cette drilodéfensine et il ne s’en trouve que mieux disposé à digérer ce qui est digeste pour lui d’une feuille morte. Ce composé chimique est soufré et représente jusqu’à 20 % du soufre total contenu dans le lombric, c’est dire à quel point ce ver doit dépenser une énergie considérable pour assurer sa survie dans l’environnement hostile que constituent les feuilles mortes. De plus ce détergent n’interfère pas avec les diverses activités enzymatiques nécessaires à la digestion.

Capture d’écran 2015-09-05 à 16.09.21

Selon les résultats obtenus au cours de cette étude, le plus abondant de la famille des drilodéfensines, le 2-ethyl-5-hexyl-4-furane sulfonate, se trouve dans la totalité des sols européens à raison d’un million de tonnes en estimant la masse de lombrics à une demi-tonne par hectare sans que ce composé se retrouve toutefois dans les excréments du ver de terre car il est astucieusement recyclé sans que l’on sache exactement comment. Une sorte de magie naturelle. Au contraire du lombric, les détergents industriels de synthèse, pour la plupart des phosphates, des phosphonates ou des sulfonates se retrouvent dans la nature et ne sont que lentement dégradés … mais on n’ose pas trop en parler.

Source en accès libre : Nature Communications, 2015; 6: 7869 DOI: 10.1038/ncomms8869

Réchauffement climatique, épisode 6. Fraude scientifique par omission : l’effet du Soleil

Zharkova_small

J’ai préféré attendre la « Rentrée » pour mettre en ligne ce billet pourtant prêt depuis deux mois, juste après la sortie de l’information émanant du Congrès National d’Astronomie anglais qui s’est tenu à Llandudno au Pays-de-Galles en juillet 2015 et organisé par la Royal Astronomical Society.

Dans la série perturbation climatique globale d’origine humaine (selon les termes de Barak Obama) on oublie systématiquement et délibérément de prendre en considération l’influence du Soleil sur le climat comme avait osé le faire Claude Allègre en son temps et il avait parfaitement raison : des travaux scientifiques récents sont là pour le confirmer définitivement. Cela fera bientôt 19 ans qu’on attend ce réchauffement tant annoncé à grands renforts de conférences, meetings internationaux coûteux, courbes en crosse de hockey, rapports « scientifiques » des climatologues auto-proclamés de l’IPCC et d’autres organismes financés par les impôts des contribuables du monde entier … et pour une seule, incontournable, considérable et immense raison, ce réchauffement ne viendra pas, certainement pas de mon vivant ni de celui de mes petits-enfants et peut-être même pas du vivant de mes arrières-petits-enfants ! On s’achemine vers un refroidissement global et brutal de la planète et même en brûlant toutes les réserves disponibles en hydrocarbures liquides et gazeux, charbon, bois et autre suif animal, c’est-à-dire en dégageant des quantités colossales de CO2 dans l’atmosphère rien n’y fera (d’ailleurs ça n’aurait strictement rien changé au climat) la Terre va se refroidir parce que le Soleil en a décidé ainsi et cette fois-ci c’est certain, absolument certain.

Je suspecte que quelques-uns de mes lecteurs pensent que j’ai perdu la raison en écrivant de telles affirmations hautement hérétiques à moins de 100 jours de l’ouverture de la grande mascarade que sera la COP21 ou alors que je m’enfonce dans ma propre paranoïa anti-réchauffement et pourtant il faut se rendre à l’évidence : on va tous souffrir du froid et dans pas très longtemps, dans moins de dix ans, ça a même commencé cette année dans l’hémisphère sud, il fait un froid à ne pas sortir dehors à Adélaïde en Australie et il a neigé en plein mois de juillet dans les Montagnes Rocheuses, du jamais vu de mémoire d’habitants de Jackson Hole !

Je fais partie de cette communauté restreinte de blogueurs hétérodoxes qui désapprouve la doxa réchauffiste et qui ait avancé inlassablement l’argument solaire dans les variations climatiques terrestres en dénonçant également à longueur de billets l’absurdité scientifique de la théorie de l’effet de serre et pour bien saisir la teneur de ce nouveau billet il faut comprendre ce qui est en train de se passer dans les profondeurs du Soleil. Cet astre n’est pas une machine thermonucléaire très simple à décrire et on dispose d’un certain nombre de moyens d’investigation comme l’observation visuelle directe pour dénombrer les taches solaires et depuis quelques années (1975, voir l’illustration ci-dessus, Wilcox Observatory Stanford University) on peut directement mesurer les variations du champ magnétique de notre étoile qui nous protège des rayonnements cosmiques à l’aide d’instrumentations magnétométriques ultra-sensibles.

Capture d’écran 2015-07-29 à 15.55.00

Pour ce qui est du passé, quand par exemple le champ magnétique solaire dont dépend directement l’activité du Soleil diminuait, l’abondance en isotope 10 du béryllium dans les concrétions calcaires et les carottes glaciaires augmentait car les rayons cosmiques sont moins bien déviés par le champ magnétique solaire et atteignent plus facilement les hautes couches de l’atmosphère terrestre. Le béryllium-10 est en effet produit par ce qu’on appelle la spallation cosmique, la capture d’un proton cosmique de haute énergie par un noyau d’azote conduisant à cet isotope radioactif du béryllium. Il s’agit d’un « proxy » très utile pour reconstruire l’évolution passée du champ magnétique solaire. Comme le champ magnétique terrestre est également sous l’influence de celui du Soleil des magnétomètres peuvent aussi très indirectement conduire à une évaluation globale de ce dernier.

Il y a donc depuis une quarantaine d’années des observatoires dédiés au suivi direct du champ magnétique solaire et les variations de ce champ magnétique paraissent pour le moins erratiques et inexplicables. Bref, apparemment rien à en tirer à première vue. Comme le dénombrement des taches solaires est supposé être un bon reflet de l’activité solaire, donc de la vigueur du champ magnétique du Soleil puisque les taches solaires sont la manifestation directe de ce champ sous-jacent induit par des flux de matière à l’intérieur de l’étoile, il s’est trouvé qu’après les cycles solaires 21 et 22 au cours de l’optimum solaire moderne qui débuta au début du XXe siècle, brutalement, d’un seul coup, sans qu’aucun géophysicien ne s’y soit attendu, le cycle solaire 23 est devenu tout d’un coup plus faible et présentait un maximum dédoublé après une latence anormalement longue à la fin du cycle 22. Le cycle 24 qui est en passe de se terminer s’est trouvé être lui aussi très affaibli par rapport au précédent déjà lui-même plus faible que le cycle 22 avec ce maximum bifide anormal :

Capture d’écran 2015-07-28 à 11.08.07

(dernier relevé de taches solaires, cycles 23 et 24, source NOAA et pour la nomenclature des cycles solaires voir note en fin de billet)

On a eu beau se creuser les méninges, je parle des astrophysiciens professionnels, aucune explication rationnelle n’a pu être apportée. Il faut noter au passage que depuis le début du cycle solaire 23 qui s’est terminé vers 2007, il avait débuté en 1996, l’activité solaire ne cesse de diminuer. Les astrophysiciens considèrent que c’en est fini de l’optimum moderne qui a débuté aux alentours de 1920 et qu’on s’achemine vers un épisode de froidure pour ne pas dire un âge glaciaire. La faiblesse de l’activité solaire strictement relatée par le nombre de taches solaires explique à elle seule que le climat ne se réchauffe plus depuis 19 ans, mais nous y reviendrons ci-après.

Cet optimum solaire moderne qui aura duré un petit siècle et qui a provoqué par exemple la fonte des glaciers alpins pour ne citer que cette observation s’est brutalement terminé il y a donc près de 20 ans. La mécanique solaire a commencé à se dérégler subitement après le cycle 22 et pour bien comprendre ce qui se passe dans le Soleil dont le comportement semble pour le moins capricieux il faut préciser, après cette longue introduction, comment ça fonctionne à l’intérieur de cette étoile. Il existe un flux de matière depuis les pôles vers l’équateur qu’on peut représenter sous forme d’un tore. Pas difficile de se représenter un tore, une chambre à air de pneu d’automobile est un tore et si on l’aplatit pour la faire tenir dans une demi-sphère, on a une image de la double courroie de transmission de matière (conveyor belt) existant dans les hémisphères nord et sud du Soleil. De la matière interne migre depuis les pôles vers l’équateur puis s’enfonce dans les profondeurs de l’astre et ceci symétriquement au nord et au sud par rapport au plan équatorial. La chute d’activité solaire au cours de la fin du cycle 23 couvrant la période 1997-2008 a été suivie d’une sorte d’hésitation qui a anormalement duré plus de trois années, de fin 2007 à début 2010, et une répartition en deux phases des taches solaires durant ce cycle (le cycle 24 qui se termine) a intrigué plus d’un astrophysicien. Il y avait comme un genre de répétition de ce qui venait de se passer pour le cycle 23 qui « mit du temps » à monter en puissance, entre 1995 et 1998 et dont le maximum fut aussi en « dos de chameau ».

Ce genre de comportement ne pouvait s’expliquer que s’il y avait une interférence sous-jacente, à l’intérieur du Soleil, avec cette principale courroie de transmission en forme de tore appelée toroïde.

Pour identifier l’élément perturbateur, il a fallu faire une analyse mathématique en profondeur (sans jeu de mots) des données recueillies sur ce qu’on appelle communément la « dynamo solaire » par l’observatoire solaire Wilcox de l’Université de Stanford.

C’est ce qu’a réalisé une mathématicienne de l’Université de Northumbria à Newcastle-upon-Tyne. En effectuant donc une analyse mathématique détaillée des fluctuations des ondes du champ magnétique solaire aboutissant à une distinction entre amplitude et fréquence des ondes de ce champ, ne me demandez pas comment elle a fait, je n’ai jamais été un bon mathématicien, le Docteur Valentina Zharkova a pu mettre en évidence les caractéristiques du deuxième flux de matière existant en profondeur dans le Soleil qui va d’un pôle vers l’autre et est appelé pour cette raison poloïdal ou poloïde, comme vous voudrez, et ces deux flux de matière peuvent être décrits par des équations mathématiques appropriées. Ces deux mouvements de matière interagissent entre eux et ces flux furent encore synchrones lors des cycles 21 et 22 et d’un seul coup, pour une raison qui reste encore indéterminée à ce jour, il se sont trouvés désynchronisés et oeuvrent maintenant, si on peut dire les choses ainsi, à se contrecarrer :

Capture d’écran 2015-07-27 à 22.55.22

Les deux composantes toroïde et poloïde, en bleu et rouge respectivement, ont été extraites par analyse mathématique des observations de l’observatoire Wilcox et des équations mathématiques plutôt compliquées ont ensuite permis de faire un retour vers le passé et une projection vers le futur, nous allons y revenir. On s’aperçoit qu’à l’évidence un déphasage apparaît dès la fin du cycle solaire 22 et la situation devient de plus en plus décalée. Ce déphasage entrainera une diminution substantielle de l’activité magnétique du Soleil, donc du nombre de taches solaires et par voie de conséquence de l’irradiance qui atteint la Terre avec toutes les conséquences que ce phénomène va entrainer sur le climat, mais nous en reparlerons plus loin.

Valentina Zharkova, avec qui j’ai conversé par mail, est formelle pour ne pas dire péremptoire : le Soleil s’achemine vers une longue période de « sommeil magnétique » sans pour autant mentionner un instant une quelconque conséquence sur le climat. La conséquence directe sera un affaiblissement de l’irradiance atteignant la Terre, je le répète. Madame Zharkova insiste sur le fait que son traitement mathématique des variations d’intensité du champ magnétique solaire ne peut pas être directement utilisé pour établir une corrélation entre le résultat de ses travaux et les températures moyennes observées sur Terre. Cette analyse mathématique ne constitue donc pas, selon elle, un argument à mettre en avant pour nier la putative existence d’un réchauffement d’origine anthropique. Je ferai part de mes remarques sur ce point en fin de billet.

Les calculs effectués par Madame Zharkova concordent parfaitement (courbe continue en gris) avec l’évolution à venir des taches solaires :

Capture d’écran 2015-07-27 à 22.22.50

Comme l’indique le graphique ci-dessus qui est une représentation de l’analyse mathématique effectuée, après 2015 ça va vraiment se corser. Si vous n’êtes pas encore convaincu, la courbe en continu représentant l’amplitude des ondes magnétiques solaires est issue du calcul. On distingue en superposition jusqu’en 2011, en pointillés gris-clair et gris-sombre, les observations obtenues à l’observatoire Wilcox et la précision de coïncidence avec le modèle est de plus de 98 %, ce qui valide largement cette analyse mathématique. Les prévisions pour le cycle 24 sont pour l’instant en parfaite concordance avec les observations et la compilation la plus récente faite par le NOAA (voir plus haut) et la superposition de l’analyse mathématique (courbe en noir) avec les données relatives aux cycles 21, 22 et 23 :

Capture d’écran 2015-07-29 à 13.05.21

On pourrait s’arrêter là et dire qu’après tout quand un mathématicien, en l’occurence une mathématicienne, travaillant avec son époux Sergei Zharkov, s’intéresse au Soleil ça peut paraître anecdotique. Pas du tout ! L’analyse mathématique peaufinée par Madame Zharkova s’est révélée valider les variations climatiques sur une période remontant à plus de 1000 ans en arrière y compris le fameux minimum de Maunder qui sévit de 1640 à 1720 et le minimum dit de Dalton qui frigorifia l’Europe pendant 33 ans au début du XIXe siècle sans oublier l’optimum climatique médiéval qui n’avait rien à voir avec le CO2 ! Et voilà les prévisions effectuées et montrées ici jusqu’en 2040 :

Capture d’écran 2015-07-27 à 19.55.46

Le modèle mathématique de Madame Zharkova fait des projections sur les 2000 années à venir et l’avenir proche, disons à court et moyen terme, n’est pas vraiment rassurant. On s’achemine vers une longue accalmie magnétique du Soleil, donc vers de la froidure durable et insupportable jusqu’aux alentours des années 2060, je vais en reparler, mais loin de moi l’idée de faire dire à Madame Zharkova ce qu’elle n’a pas dit dans ses publications scientifiques à propos du climat car ce n’est pas le climat qui est le sujet de ses travaux.

Les travaux de Lockwood que j’ai mentionné dans un précédent billet (voir le lien) et qui étaient déduits strictement des observations terrestres sont donc pleinement confirmés par ce dépouillement mathématique des observations de l’observatoire Wilcox. Quant aux effets de marée putatifs de Jupiter sur le champ magnétique solaire, Madame Zharkova n’y croit pas car l’amplitude de ces effets qu’on ne peut supputer que par la mécanique céleste, c’est-à-dire le mouvement des planètes, est beaucoup trop faible pour qu’on puisse en attendre une incidence significative sur les mouvements internes de matière solaire et donc sur la « dynamo solaire ».

Ç’en est donc terminé avec le bluff et l’intoxication de l’IPCC, de Greenpeace et de tous les autres groupuscules écologistes qui versent dans un malthusianisme sordide et qui ont converti des politiciens crédules et stupides à une reconversion énergétique exempte de CO2 extrêmement coûteuse et inefficace car ce gaz n’a rien à voir avec les variations climatiques, seul le Soleil est en cause ! Dans moins de dix ans le COP21 de la fin de l’année sera ridiculisé ainsi que tous les climatologues autoproclamés et aussi tous les écologistes marxisants et nostalgiques d’un passé sans électricité et sans pétrole et encore plus les politiciens dont Mademoiselle Ségolène qui se pavane royalement d’avance en pensant à ce grand raout qui sera le couronnement de sa carrière de politicienne. Toutes ces histoires de CO2, de méthane, de volcanisme bien venu pour expliquer l’inexplicable, la fonte des banquises, la disparition des ours blancs et des neiges du Kilimanjaro et la submersion des atolls de Polynésie ou de Micronésie, l’acidification des océans et les courbes en crosse de hockey, ce n’est que de l’intoxication idéologique. Il ne suffit que de quelques watts, sur 1360 en moyenne, de diminution de l’irradiance solaire par mètre carré (au niveau des tropiques) pour que le climat change complètement et cette fois ça va être du sérieux.

En 2025, dans seulement dix ans, il commencera déjà à faire vraiment froid, le climat de Stockholm à Paris, et celui de Paris à Alger ou Naples, difficile à imaginer, et pourtant …

Il n’y a donc maintenant plus aucun doute, le climat va devenir glacial et il est urgent de se préparer à ce changement climatique à l’évidence duquel il faut se rendre et sans tarder car il y a un réel danger pour l’équilibre géopolitique global. Imaginez une plaine de Beauce où on ne peut plus faire pousser de blé tendre : plus de blé, plus de pain, souvenons-nous de la famine de 1787-1788 qui fut l’un des éléments à l’origine de la révolution française ! Plus de maïs, c’est certain, les champs de maïs seront devenus un vieux souvenir, mais aussi plus de vignes en Champagne ou en Alsace, ni dans le Val de Loire ni en Bourgogne. Je me permets de rappeller ici que durant l’optimum climatique médiéval on cultivait la vigne en Grande-Bretagne presque jusqu’en Ecosse … Pour les fruits et les légumes, autant dire que ce sera la portion congrue car ils coûteront une fortune. Comme en 1956 tous les oliviers du sud de la France auront gelé et disparu, plusieurs hivers rigoureux auront eu raison de ces arbres parfois multicentenaires …

Le refroidissement climatique précisément déductible des travaux de Zharkova ou encore de Lockwood aura donc des conséquences primaires sur l’agriculture et les circuits de production et sur toute l’alimentation disponible non pas seulement en France mais aussi dans toute l’Europe, l’Amérique du Nord, la Chine ou encore le Japon sans oublier l’Argentine, l’Afrique du Sud et la moitié méridionale de l’Australie car toute la planète sera assujettie à ce refroidissement à l’exception des zones intertropicales.

On peut imaginer sans peine que la quête de nourriture alimentera des conflits armés meurtriers inévitables partout dans le monde non pas motivés pour la domination de ressources minières, diamantifères ou pétrolières mais pour avoir accès à la nourriture. On ne travaillera plus que pour se nourrir tant les aliments de base seront devenus hors de prix. Des centaines de millions de personnes chercheront à se nourrir à n’importe quel prix quitte à verser dans l’anthropophagie : quand on a faim on est prêt à tout, jusqu’à occire le premier quidam venu pour lui ôter le pain de la bouche ou le manger tout cru ! C’est peut-être un peu sombre comme tableau mais ce n’est pas éloigné de la réalité qui va survenir dans dix ans, quinze ans au plus tard, alors que les politiciens, les décideurs, les financiers, sont prisonniers d’une écologie idéologique aberrante et réellement criminelle en regard des conclusions qu’on est en droit de déduire de cet article de Valentina Zharkova même si cette dernière désapprouvera mon interprétation et ma prise de position.

Je suis un blogueur libre et j’exprime mon opinion librement. Je ne suis inféodé à aucun groupe d’intérêt, je n’ai jamais fait appel à mes lecteurs pour un quelconque soutien financier. En conséquence quand je lis un article scientifique de haute tenue je suis également libre de l’analyser mais toujours avec la plus ferme honnêteté, puis de formuler une opinion et d’en faire part à mes lecteurs …

Je pense à mes enfants qui vont avoir une fin de vie difficile mais je n’ose même pas imaginer comment mes petits-enfants vivront dans 30 ou 40 ans car tout de même on ne pourra pas tous émigrer vers les tropiques ça risquerait de devenir à l’évidence invivable ! Pour conclure je voudrais que mes lecteurs diffusent largement ce billet car il devient urgent de contrecarrer les visées criminelles des écologistes et de l’IPCC.

Pour vous apporter une dernière preuve de la désinformation organisée par les sbires de l’IPCC et des organisations écologistes, le site Wikipedia n’est plus que l’ombre de lui-même quand on tente de se documenter sur le climat. Allez faire une recherche sur le minimum de Maunder et vous serez édifié par le niveau de propagande et de caviardisation orchestrée par ces tenants du réchauffement climatique, c’est édifiant ! On y lit, je cite (à propos du minimum de Maunder) : « aucun mécanisme convaincant n’a été proposé pour l’activité solaire qui puisse expliquer les températures inférieures à la normale » et plus loin : « l’hypothèse couramment admise est que la cause du minimum de Maunder est l’activité volcanique », traduit de l’anglais, et si vous ne me croyez pas allez sur ce lien s’il est toujours valide https://en.wikipedia.org/wiki/Maunder_Minimum , honte à ce site qui a abandonné toute probité scientifique et consent à faire de la propagande « climatique » gratuite pour l’IPCC, Greenpeace et les autres groupuscules écologistes …

Sources : http://computing.unn.ac.uk/staff/slmv5/kinetics/shepherd_etal_apj14_795_1_46.pdf

http://www.ann-geophys.net/31/2023/2013/angeo-31-2023-2013.html

http://www.swpc.noaa.gov/products/solar-cycle-progression

https://jacqueshenry.wordpress.com/2015/03/03/warming-or-cooling-that-is-the-question/ http://wso.stanford.edu/daily/mag.latest.ps et communications personnelles de Valentina Zharkova.

Note 1 : Madame Zharkova travaille au sein de l’Université de Newcastle en tant que mathématicienne. S’intéresser à l’activité solaire n’est pas très bien vu des pourvoyeurs de crédits de recherche surtout quand on peut établir que ces recherches ont un lien direct ou lointain avec l’évolution du climat et qu’elles infirment les conclusions maintenant mondialement admises vers un réchauffement de ce dernier. Par les temps qui courent de nombreux laboratoires de recherche impliqués dans toutes sortes de disciplines se sont retrouvés prisonniers du système de financement qui est abondant à condition qu’on effectue des travaux dans le sens politiquement correct du réchauffement climatique. Si un scientifique ose contredire la doxa climatique actuelle il peut tout simplement dire adieu à sa carrière car il est immédiatement inscrit sur la liste noire des hérétiques. Le réchauffement climatique est devenu le gagne-pain de dizaines de milliers de scientifiques qui par voie de conséquence effectuent des travaux le plus souvent biaisés voire complètement falsifiés du genre : on écrit les conclusions d’un article scientifique avant même d’avoir réalisé la moindre expérimentation, le moindre calcul ou la moindre observation. Et si par hasard on s’est personnellement plié à un semblant d’honnêteté, la qualité pourtant basique d’un scientifique, et que les premiers résultats obtenus ne sont pas conformes à cette doxa climatique imposée par les idéologues, alors on fait du « cherry-picking » (le ramassage des plus belles cerises) quitte à devenir franchement malhonnête. C’est ainsi que fonctionnent des pans entiers de la science d’aujourd’hui ! L’aspect le plus significatif de cette nouvelle évidence d’un refroidissement généralisé et inévitable du climat terrestre que je me suis permis de déduire des travaux de cette mathématicienne et qui va arriver inéluctablement va précipiter des centaines de milliers d’articles scientifiques aux oubliettes, complaisamment acceptés par des comités de lecture sans scrupules pour alimenter tous azimuts la propagande « réchauffiste » et des milliers de ces scientifiques d’opérette et opportunistes – il ne faut pas non plus oublier cet aspect – se retrouveront brusquement au chômage. Quand, dans 10 ou 15 ans la Seine sera chaque hiver prise plusieurs mois par les glaces à Paris devant l’Université de Jussieu et le Muséum d’histoire naturelle est-ce qu’on continuera à clamer que c’est à cause du réchauffement climatique ?

Note 2 : Les cycles solaires sont par convention numérotés à partir du cycle qui culmina aux alentours de 1760. Le cycle actuel finissant est donc le 24e cycle solaire ( http://www.sidc.be/images/wolfaml.png ).

Source : http://nam2015.org/index.php/press-releases/64-irregular-heartbeat-of-the-sun-driven-by-double-dynamo

Illustrations : Wilcox Laboratory et U. de Tokyo

Et toujours :

https://jacqueshenry.wordpress.com/2015/08/02/rechauffement-climatique-global-episode-2-riz-et-methane/

https://jacqueshenry.wordpress.com/2015/07/29/science-et-religion-nont-jamais-fait-bon-menage-retour-sur-la-theorie-de-leffet-de-serre-et-le-rechauffement-climatique-episode-1/

https://jacqueshenry.wordpress.com/2015/08/10/climat-episode-3-une-canette-de-biere-un-modele-de-latmosphere-terrestre/

https://jacqueshenry.wordpress.com/2015/08/17/perturbation-climatique-globale-episode-4-la-science-revue-et-corrigee-pour-la-bonne-cause/

https://jacqueshenry.wordpress.com/2015/08/26/perturbation-climatique-globale-episode-5-lorigine-philosophique-de-la-supercherie-et-ses-retombees-politiques-planetaires/

Avec des transsexuelles la différence cérébrale des genres est enfin démontrée

Lors du dernier Congrès du European College of Neuropsychopharmacology qui a eu lieu à Amsterdam il y a quelques jours, une communication a fait état des modifications sur l’activité cérébrale qu’a entraîné l’administration de testostérone chez des femmes transsexuelles c’est-à-dire ayant choisi de devenir des hommes, tout du moins en apparence, il ne faut pas se leurrer … Il s’agit d’une première médicale car l’expérimentation directe chez des êtres humains est interdite. Ces volontaires à la transsexualité (voir note en fin de billet) se sont soumises de leur plein gré à des tests suivis par imagerie fonctionnelle à 7 Tesla (fMRI) concernant le langage et l’écriture et les résultats sont plutôt surprenants !

D’une manière générale les femmes sécrètent peu de testostérone et les traitements par cette hormone sexuelle masculine sont préconisées en cas de troubles de la libido, de troubles de l’identité sexuelle et dans certains cas de dépression nerveuse. Mais la testostérone joue également un rôle dans la maturation du cerveau au cours de la vie foetale et c’est pour cette raison que le cerveau des femmes ne fonctionne pas tout à fait de la même manière que celui des hommes, car un fœtus masculin sécrète de la testostérone, ce qui n’est pas le cas pour un fœtus féminin, c’est comme ça, tant pis pour la théorie du genre. Il en résulte des différences assez facilement quantifiables dans les mécanismes de l’élocution. Le langage est commandé par les aires cérébrales de Broca et de Wernicke. Ces deux régions du cortex sont connectées via des neurones situés dans la substance blanche et ces aires sont plus développées chez les femmes que chez les hommes. On peut dire que ce serait pour cette raison que les femmes papotent plus que les hommes mais ce n’est pas l’objet de ce billet :

BrocasAreaSmall

Dix-huit femmes âgées de 22 à 33 ans, ayant choisi de se masculiniser et donc de suivre un traitement quotidien sur-dosé en testostérone ont été soumises par leur médecin universitaire traitant à une imagerie fonctionnelle avant le début de ce traitement puis 4 semaines après le début du dit traitement. Les résultats ont montré que les volumes des deux aires du cortex intervenant dans le langage ont très nettement diminué et que chez ces personnes la « fluidité » du langage a également été altérée. Parallèlement les connections neuronales entre les deux aires précitées se sont trouvées être renforcées. Sans vouloir enfoncer le clou, si la facilité d’élocution a diminué en raison de la décroissance du volume des aires cérébrales précitées, le renforcement des interconnexions entre ces deux aires a eu un effet favorable sur le processing sémantique et la compréhension du langage, caractéristiques plutôt masculines … Ces interconnexions renforcées ont ainsi partiellement réduit le déficit en matière grise des aires de Broca et de Wernicke.

C’est donc la première fois qu’une étude de ce genre (ici sans aucun jeu de mot) montre un effet de la testostérone sur l’aptitude au langage et une nette différence fonctionnelle entre femmes et hommes, différence soumise au statut hormonal sexuel. Le Docteur Andreas Hahn de L’Université Médicale de Vienne en Autriche, travaillant dans le service du Professeur Rupert Lanzenberger ne mâche pas ses mots : « On sait depuis quelque temps que des taux élevés de testostérone sont liés à une pauvreté en vocabulaire chez l’enfant et que la fluidité verbale diminue chez les transsexuels « femme-vers-homme » après un traitement par la testostérone. Ceci est en accord avec une diminution de la matière grise que nous avons observé. Ce qui fut pour nous une surprise est le renforcement de substance blanche dans ces aires du langage. Nous pensons que lorsqu’on se penche sur certaines aptitudes à maîtriser le langage, la perte de substance grise peut ne plus être contrebalancée par les interconnexions via la matière blanche ».

Pour terminer il est bien connu que l’apprentissage du langage diffère entre garçons et filles et qu’il est directement lié aux différences de maturation du cerveau. Cette intéressante étude indique donc clairement qu’à l’âge adulte les cerveaux des femmes diffèrent de ceux des hommes et elle explique aussi pourquoi les femmes ont une élocution plus facile et souvent plus affirmée que celle des hommes. Les femmes marquent au moins un point même si, pour les mêmes raisons, elles ont parfois des pannes de libido et sont plus souvent dépressives que les hommes … En effet les statistiques indiquent que les femmes sont deux fois plus dépressives que les hommes. La testostérone joue un rôle dans la recapture de la sérotonine au niveau du cerveau et a donc un effet direct sur l’état dépressif ou l’anxiété comme cela a été montré par tomographie par émission de positrons également à l’Université Médicale de Vienne ( http://dx.doi.org/10.1016/j.biopsych.2014.09.010 ).

Note : Toutes les personnes recrutées pour cette étude souffraient de troubles de l’identité sexuelle et étaient prises en charge par un service spécial du Département d’Obstétrique et de Gynécologie de l’Université de Vienne.

Sources : European College of Neuropsychopharmacology, et communications personnelles du Docteur Andreas Hahn. Illustration Wikipedia

Mal dormir : le premier signe d’Alzheimer

OldWomanSleeping300

Le sommeil, très schématiquement, se décompose en trois phases, l’assoupissement suivi du sommeil REM, ou sommeil paradoxal, durant lequel les yeux ne cessent de bouger, c’est la phase des rêves dont on se souvient parfois, et enfin le sommeil profond durant lequel les yeux restent immobiles. Cette dernière période est essentielle pour le maintien de la mémoire mais elle n’est pas continue car elle est interrompue par des périodes plus ou moins longues de sommeil paradoxal au cours de la nuit. Il est possible de différencier le sommeil paradoxal du sommeil profond en suivant l’activité électrique du cerveau. Pour simplifier, les électroencéphalogrammes sont très différents : au cours du sommeil profond peu de signaux électriques mais de fortes amplitude, au cours du sommeil paradoxal beaucoup de signaux mais de faible amplitude. Lors du sommeil profond, toujours schématiquement, le cerveau reconstitue ses réserves d’énergie et prend le temps de finaliser les connections neuronales impliquées en particulier dans la mémoire à long terme.

Quand on vieillit on a de plus en plus de difficultés à atteindre le sommeil profond et l’un des signes de la maladie d’Alzheimer est la perte de mémoire. De plus les personnes souffrant de cette maladie éprouvent de nettes difficultés à atteindre ce stade du sommeil profond. En conséquence, surveiller la qualité du sommeil peut indiquer l’éventuelle apparition de cette maladie. C’est en partant de cette hypothèse qu’une équipe de biologistes de l’Université de Berkeley s’est intéressée à des sujets présentant des troubles du sommeil. L’approche a réuni tous les moyens d’investigation dont on dispose pour explorer en profondeur le fonctionnement du cerveau : imagerie en tomographie par émission de positrons (PET-scan) pour quantifier l’importance des dépôts de protéine amyloïde, IRM fonctionnelle (fMRI) pour suivre la consommation d’oxygène durant les processus de finalisation de la mémoire et enfin le suivi par électroencéphalographie (EEG) de l’activité électrique du cerveau. L’étude a été conduite sur 26 adultes d’âge compris entre 65 et 81 ans qui ne présentaient aucun signe de démence ou de maladie neurodégénérative ni de désordres psychiatriques. Par PET-scan les chercheurs effectuèrent une évaluation de la teneur en protéine beta-amyloïde, le marqueur de la maladie d’Alzheimer qui émet un signal spécifique, puis chaque sujet fut soumis à des tests de mémorisation afin de déterminer par la suite la « qualité » de leur mémorisation. Après une nuit de sommeil durant laquelle l’activité de leur cerveau fut enregistrée (EEG) ils furent soumis au résultat du test de mémoire consistant à « ressortir » de leur cerveau le maximum de paires de mots associés parmi 120 mots proposés la veille tout en suivant l’activité de leur cerveau par fMRI.

Capture d’écran 2015-09-01 à 20.46.46

Le résultat fut parfaitement clair ! Les difficultés rencontrées au cours du sommeil, c’est-à-dire un sommeil profond de mauvaise qualité, se sont révélées corrélées avec la présence de protéine amyloïde dans le cerveau mais aussi avec de mauvais résultats au cours des tests de re-mémorisation et une activité cérébrale inférieure montrée par fMRI.

Le Professeur de neuroscience Matthew Walker résume la situation ainsi : « le sommeil aide le cerveau à se débarrasser des protéines toxiques durant la nuit et à prévenir ainsi une potentielle destruction des cellules nerveuses. Le mieux vous vous souvenez après une bonne nuit de bon sommeil, le moins vous dépendez de l’hippocampe et le mieux vous utilisez votre cortex. C’est comme si vous utilisez les données du disque dur de votre ordinateur plutôt que celles stockées dans une clé USB ». Et il ajoute : « plus il y a de protéine beta-amyloïde dans le cerveau, plus le sommeil est de mauvaise qualité et plus la mémoire devient défectueuse ».

On ne sait pas traiter la maladie d’Alzheimer par contre il existe toute une panoplie de drogues pour traiter les insomnies de types nombreux et variés. Comme on ne sait pas non plus si c’est une mauvaise qualité du sommeil qui provoque ou accélère le développement de la maladie d’Alzheimer et inversement si c’est l’apparition de cette maladie qui dégrade la qualité du sommeil, alors ce que préconisent ces biologistes de l’UC Berkeley c’est de se traiter quand on s’aperçoit qu’on a de plus en plus de difficultés à s’endormir ou que l’on constate de plus en plus de pertes de mémoire inexpliquées. Tant qu’à faire on ne risque rien …

Source et illustrations : UC Berkeley News et voir aussi https://www.youtube.com/watch?v=rvr37cUE-x4

Billet d’humeur climatique : Trois cyclones (typhons) simultanément dans le Pacifique !

three hurricanes

Ce lundi 31 août la NASA s’en empressée de mettre en ligne cette somptueuse image du Pacifique Nord pour bien montrer que El Nino est en train de se renforcer et que ça va faire des dégâts planétaires car le réchauffement climatique y est certainement pour quelque chose. Toutes ces dépressions se forment aux alentours de 10 degrés de latitude et peuvent évoluer en typhons ravageurs. Le souci c’est que lorsque ces perturbations remontent vers le nord l’eau de surface n’est pas assez chaude, surtout au milieu du Pacifique, pour que le phénomène soit entretenu par une évaporation suffisante … C’est une histoire de réchauffement climatique comme tant d’autres. Le dernier typhon Jimena va s’avachir en tempête tropicale alors que le typhon Ignacio plus à l’ouest est déjà une vulgaire dépression de rien du tout (au milieu de la photo recomposée de la NASA. Le typhon encore plus à l’ouest s’est déjà évaporé :

Capture d’écran 2015-09-02 à 19.43.20

Ça se réchauffe – surtout les esprits complètement à l’ouest des climatologues – et El Nino n’arrive toujours pas à sortir franchement du ventre de l’Océan.

Illustrations NASA et http://tropic.ssec.wisc.edu/# où on voit l’archipel d’Hawaii