Changement climatique, épisode 9 : Les fraudes répétées de la NASA et de la NOAA

Il y a quelques jours une information inonda tous les médias main-stream pour faire une piqûre de rappel tant à l’opinion publique qu’aux dirigeants politiques à l’approche du grand raout organisé par Mademoiselle Ségolène dans deux mois : 2015 l’année la plus chaude depuis … on ne sait plus trop. Bref, l’information provenait de la NASA et de l’agence météorologique américaine (NOAA) qui travaillent de concert pour dénombrer les petits nuages, les grosses dépressions tropicales, la fonte des glaces (voir un prochain billet sur ce blog) et les incendies en Californie. Parce que toutes les nouvelles sont alarmantes et doivent l’être quand il s’agit de climat, c’est urgent et nécessaire.

Pas de chance pour la NASA, on peut retrouver ses fraudes répétées. Voici 4 illustrations tirées du blog de Steven Goddard. Elles se passent de commentaires. Les cercles rouges montrent la progression de la fraude.

Capture d’écran 2015-09-21 à 09.30.03

Capture d’écran 2015-09-21 à 09.32.22

Capture d’écran 2015-09-21 à 09.31.09

Capture d’écran 2015-09-21 à 09.28.57

Cancer du sein : une origine virale ?

Capture d’écran 2015-09-17 à 17.47.39

Les progrès dans l’identification non équivoque de l’ADN à l’aide des techniques de séquençage actuelles ont ouvert un immense champ d’investigation et parfois il est surprenant d’en découvrir les résultats obtenus. J’avais relaté il y a quelques jours la présence de cellules foetales chez la mère, identification rendue possible par la puissance des machines de séquençage. Tout en restant prudent quant à l’interprétation de résultats scientifiques parfois déroutants mais aussi et souvent non concluants, il faut dans ce genre d’investigation disposer d’outils permettant d’atteindre une spécificité indiscutable, le risque étant que dans le cas contraire on peut raconter n’importe quoi.

Une récente étude parue dans PlosOne et réalisée à l’Université de Berkeley fait un peu froid dans le dos dans la mesure où toutes les précautions ont été prises pour ne pas décrire un simple artefact. Il s’est agi de montrer que sans aucun doute un ADN d’origine virale était retrouvé presque systématiquement dans les cancers du sein.

Il y a peu de virus reconnus pour leurs propriétés oncogènes chez l’homme. Seulement six virus ont été identifiés. Le plus connu est l’HPV (virus du papillome humain) qui est à l’origine de presque la totalité des cancers du col de l’utérus et qui provoque également des cancers de l’anus et certains cancers de l’oropharynx. Le second virus directement lié à l’apparition d’hépatocarcinomes est celui de l’hépatite (types B et C). Celui d’Epstein-Barr provoque le lymphome de Burkitt et des carcinomes du oropharynx. Restent enfin l’HTLV-1 à l’origine de leucémies à cellules T et un sous-type du virus de l’herpès (type 8) qui est lui à l’origine du sarcome de Kaposi que l’on observe que chez les personnes immunodéprimées.

Pour ce qui concerne ces travaux sur les tumeurs mammaires les analyses ont concerné 114 biopsies liées à des tumeurs invasives, 21 à des stades pré-tumoraux (mastectomies dans les deux cas) et 104 biopsies de sujets sains provenant de femmes ayant subi une mammoplastie. Ce ne sont pas les virus énumérés ci-dessus dont la présence a été recherchée dans ce biopsies mais l’ADN d’un virus animal normalement anodin pour l’homme, celui de la leucémie bovine (BLV), très proche de l’HTLV dont on suspectait un éventuel rôle dans l’apparition de cancers du sein par analogie avec un virus présent chez la souris, très proche également de l’HTLV, et qui provoque des tumeurs mammaires. À l’aide d’anticorps dirigés contre la protéine de l’enveloppe du BLV une étude montra en 2003 que dans près de 40 % des tumeurs mammaires humaines on retrouvait la présence de cette protéine sans en tirer de conclusions à l’époque.

On connaît assez bien l’étiologie des tumeurs mammaires. À peine 10 % d’entre elles sont d’origine génétique. Pour le reste on a incriminé l’âge, le passé reproductif des femmes, grossesses ou non, allaitement ou non, l’utilisation de produits hormonaux de substitution ou des contraceptifs, le régime alimentaire, bref mis à part certains traitement hormonaux prescrits après la ménopause et de très rares cas déclenchés par des traitements à l’aide de radiations ionisantes, aucune conclusion claire n’a pu être apportée pour les causes initiales des cancers du sein. Après ces travaux datant de 2003, les progrès qu’a connu la biologie moléculaire ont conduit les biologistes à se pencher à nouveau sur cette présence d’un antigène viral d’origine bovine.

Pour lever toute ambiguité la sonde utilisée pour amplifier l’ADN présent dans les biopsies a été choisie de telle façon qu’il ne puisse pas y avoir de faux-positifs. Les conditions de conservation des biopsies a aussi donné lieu à des vérifications multiples afin de ne pas faire aussi apparaître d’artefacts. La sonde constituée de deux brins d’ADN de 20 bases chacun correspondait à l’oncogène du BLV, une protéine appelée Tax. Cette sonde a été montrée comme ne pouvant s’hybrider avec aucun des rétrovirus oncogènes connus ni avec des virus assez communément présents dans le lait maternel comme les HPV 16 et 18 ou encore le virus d’Epstein-Barr. Bref, toutes les précautions expérimentales ont été prises et le résultat de l’étude parue dans PlosOne (voir le lien) a montré ceci :

Capture d’écran 2015-09-17 à 16.45.47

Ce que l’on peut tout de suite constater est que trois femmes non cancéreuses sur 10 sont porteuses du BLV. Comme les biopsies non cancéreuses provenaient de femmes ayant subi une chirurgie esthétique, auraient-elles ultérieurement développé un cancer du sein. L’étude n’apporte évidemment pas de réponse directe à cette question. On la trouve en constatant que 4 femmes sur dix présentant des lésions précancéreuses étaient porteuses du virus et encore plus alarmant cette proportion atteint 60 % pour les tumeurs cancéreuses.

Le mystère de la présence de ce virus reste entier car la pasteurisation est considérée comme détruisant le BLV. La longue histoire de la promiscuité entre l’homme et le bétail ne date pas d’aujourd’hui. Pendant plusieurs millénaires l’homme a vécu en contact direct avec ces bêtes à corne pour en obtenir le lait, la viande et le cuir. Ce virus aurait pu être transmis à l’homme dans le passé et comme beaucoup de rétrovirus s’intégrer au génome humain et se « réveiller » pour des raisons inconnues, exprimant alors l’oncogène Tax conduisant à l’apparition de tumeurs mammaires. Mais on parle ici au conditionnel. Il reste néanmoins que cette étude est en faveur d’une origine virale d’une majorité de cancers du sein.

Illustrations : Wikipedia et PlosOne

Source : http://journals.plos.org/plosone/article?id=10.1371/journal.pone.0134304#sec005

Changement climatique, épisode 8 : Qu’est devenue l’intégrité des scientifiques climatologues ?

Capture d’écran 2015-09-07 à 17.46.04

L’IPCC n’a pas cessé de modifier ses prévisions de réchauffement au cours des années passées. Par exemple en 2007 cet organisme inféodé aux idéaux malthusiens des écologistes politiques clamait qu’il faudrait stabiliser les émissions de carbone en 2015 pour rester dans la limite de 2 °C de réchauffement à la fin du siècle. Le cinquième rapport de ce même organisme faisait mention de 2030 pour ce même objectif étant en cela appuyé par l’UNEP (UN Environment Program). Pour atteindre cet objectif il était clairement conseillé aux décideurs de développer les carburants « verts » et il faut le lire pour le croire : «  il faudra convertir 500 millions d’hectares de terre arable pour produire des biocarburants », c’est une fois et demi la surface de l’Inde ! Ces « experts » de l’IPCC conseillaient également aux décideurs politiques (déjà en 2007) d’accélérer la recherche dans les technique de capture et de stockage du CO2. Or rien n’a encore pu être réalisé dans ce domaine qui puisse être développé au stade industriel et la faisabilité même de ces technologies reste encore à démontrer en 2015. Quand il a été demandé à ces « experts » de bien vouloir préciser leurs calculs et leurs modélisations reliant les émissions de CO2 à l’augmentation de la température, encore une fois leur attitude a semé le doute dans les esprits car aucune réponse crédible n’a pu être apportée. L’IPCC est donc un organe hautement politisé qui tente d’influencer les scientifiques et les ingénieurs travaillant dans ce domaine. Et ces acteurs essentiellement mandatés par les Nations-Unies pour infléchir les décisions politiques des gouvernements ne s’appuient sur aucune évidence scientifique. Les politiciens doivent être informés des évidences scientifiques et non de faits biaisés pour la « cause » de la perturbation climatique globale d’origine anthropique.

Cette brève entrée en matière résume un commentaire paru dans Nature sous la plume d’Oliver Geden, directeur de la division recherche de l’Union Européenne à Berlin au sein de l’Institut Allemand des Affaires de Sécurité Internationale (voir le lien).

Parmi les acteurs influents oeuvrant pour la « cause » climatique il y a aussi la NASA et une nébuleuse d’agences gouvernementales américaines dont par exemple la NOAA. Mais la NASA dans le genre désinformation a fait très fort en se contredisant et de ce fait en ternissant son image d’intégrité scientifique. L’intégrité des sciences de base comme la physique, la chimie et la biologie repose sur des règles de reproductibilité de tous les travaux publiés de façon suffisamment claire et détaillée pour qu’ils puissent être justement reproduits par n’importe qui, n’importe où et à n’importe quel moment. La reproductibilité universelle conjuguée à l’aspect général de précision et de sensibilité des mesures expérimentales constitue le fondement même de l’acceptation par la société de l’intégrité de ces sciences de base, tant que les observations et expérimentations scientifiques concernent des corps physiques, des substances chimiques ou des organismes vivants. Dans les sciences dites appliquées et en particulier dans le domaine du climat et de la météorologie ces principes fondamentaux ont été parfois l’objet de contestations et de conflits. Il en est résulté une érosion de ces principes de reproductibilité, de précision et de sincérité en regard des intérêts sociologiques car l’économie et la prévention des risques ont surpassé en importance ces principes. Il est donc opportun de se positionner de manière critique quand on analyse l’intégrité de ces sciences appliquées.

La problématique du CO2 pose une question : comment le mélange chimique de molécules de gaz atmosphériques qui sont les uns insensibles aux rayonnement infra-rouges et les autres sensibles à ces derniers impacte-t-il les flux d’énergie de la surface de la Terre vers les hautes couches de l’atmosphère puis vers l’Espace. Si cette question ne doit pas trouver de réponse satisfaisante avec la physique et la chimie fondamentales mais avec la météo et le climat on peut alors émettre des doutes quant à l’intégrité scientifique de ces dernières sciences appliquées. La critique peut être motivée pour des raisons éthiques ou politiques mais in fine elle doit s’appuyer sur les sciences de base elles-mêmes.

Cette problématique du CO2 concerne la composition chimique de l’atmosphère et le flux d’énergie depuis le sol jusqu’aux hautes couches de l’atmosphère. Ces deux points concernent d’une part la chimie en ce qui concerne la composition de l’atmosphère et la physique en ce qui concerne l’énergie. Ces deux disciplines constituent la chimie physique fondamentale. Cette science doit donc être susceptible de clarifier la problématique du CO2. Si l’on se place du point de vue d’un physico-chimiste, la science climatique s’est déjà rendue vulnérable en avançant l’approximation mathématique de la Terre stipulant que celle-ci peut être décrite comme un « corps noir » à la température de – 18 °C. Or l’expression mathématique décrivant un corps noir est une fonction continue sur tout le spectre électromagnétique et cette approximation doit être valable aussi bien pour les longueurs d’onde du visible que pour celles des infra-rouges. N’importe qui peut se rendre compte que le ciel est bleu, la Terre est verte quand elle n’est pas désertique et les océans, qui couvrent plus des deux tiers de la surface de la Terre sont loin d’être à – 18 °C et seraient plutôt noirs s’il ne reflétaient pas durant la journée la couleur du ciel ! Enfin les physico-chimistes savent très bien que la molécule d’eau qui émet des radiations dans la bande des infra-rouges n’est pas un émetteur continu sur toute la plage des longueurs d’onde comme le décrivent les équations du corps noir de Max Planck. Cette température de – 18 °C se trouve dans tous les livres mais elle est basée uniquement sur ces deux hypothèses de la science climatique : en regard du Soleil et de l’Espace, et thermiquement, la Terre est un corps noir à – 18 °C . Sans aller plus loin dans les détails (je sens que certains de mes lecteurs sont déjà découragés) il suffit d’examiner comment la question du CO2 a été abordée par une organisation scientifique a priori extrêmement méritoire, en appliquant les connaissances accumulées par la science spatiale. La NASA, puisque c’est d’elle dont il s’agit, a rassemblé tous les flux d’énergie en provenance du Soleil à travers l’atmosphère et les flux d’énergie en provenance de la Terre vers l’Espace. Jusqu’en 2009 ce que la NASA appela le budget énergétique de la Terre ressemblait à ça :

Capture d’écran 2015-09-10 à 08.12.38

Il s’agit d’une approximation puisque les grandeurs figurant dans cette illustration ( W/m2 – en rouge – ou pourcentages) sont moyennées. Il y aurait beaucoup à redire sur la méthode utilisée pour obtenir ces valeurs moyennes car la Terre est ronde et elle tourne sur elle-même mais il serait long et compliqué d’entrer dans des considérations mathématiques laborieuses pour démontrer point par point que l’approximation utilisée par la NASA est fausse. Par rapport au Soleil et à l’Espace la Terre se comporte effectivement comme un corps noir à la température de – 18 °C à condition toutefois d’inclure dans cette approximation une autre approximation qui est le facteur d’erreur de réflexivité de 30 % ! Ce n’est pourtant pas le cas si on considère la surface de la Terre et l’environnement thermique dans l’infra-rouge et pour une raison très simple : il n’existe pas de stations d’observation fixes dans l’atmosphère permettant de mesurer les flux thermiques. Les satellites (de la NASA) mesurent la totalité du flux solaire entrant vers la Terre diminué de 30 %. Les satellites ne peuvent pas déterminer d’où ces radiations infra-rouges proviennent en direction de l’atmosphère, c’est-à-dire qu’il existe une incertitude impossible à élucider avec des satellites : on ne sait pas mesurer quelle est la part de rayonnements infra-rouges provenant de la surface de la Terre ou d’un quelconque niveau de l’atmosphère. C’est l’incertitude dont j’ai parlé lors d’un précédent billet de ce blog. Pour faire bref, les photons infra-rouges émis par une molécule d’eau de la vapeur composant l’atmosphère ne savent pas s’ils doivent retourner vers la surface de la Terre ou rayonner vers l’Espace. La quantification de la radiation thermique infra-rouge – 6 % provenant de la surface terrestre et 64 % provenant de l’atmosphère – peut dès lors paraître plausible.

Il reste cependant un problème non résolu par les observations satellitaires : pour inclure le rôle du CO2 dans le processus de dissipation vers l’espace de l’énergie solaire parvenue vers la Terre il faut donc admettre que seule l’atmosphère joue ce rôle de transfert de l’énergie thermique. Le rôle dans ce processus de la surface de la Terre est alors négligé et la Terre se comporte effectivement comme un corps noir à la température de – 18 °C à la seule condition, encore une fois, que seule l’atmosphère joue un rôle dans ce processus. Cette hypothèse est naturellement fausse compte tenu des observations au sol.

C’est alors qu’apparut une modification du schéma résumant les observations de la NASA en 2009 faisant intervenir le fameux effet de serre car la supercherie devait bien être expliquée d’une manière ou d’une autre et de surcroit très officiellement par un organisme connu par ailleurs pour ses prouesses spatiales passées.

Pour une bonne compréhension de ces deux schémas et afin de pouvoir les comparer, valeurs des flux d’énergie (dans le premier schéma) et pourcentages (dans le deuxième schéma) ont été surajoutés en rouge aux schémas de la NASA. Le premier schéma est globalement cohérent mais dans ce schéma il est crucial que les molécules d’eau et de CO2, les seuls constituants de l’atmosphère actifs dans le processus d’élimination vers l’Espace de l’énergie thermique sous forme de rayonnement infra-rouge, jouent le rôle de « corps noirs » qui refroidissent la planète. Cette première illustration de la NASA est donc proche de la réalité.

Quand la NASA a publié sa deuxième interprétation des flux thermiques décrivant le « budget thermique » de la Terre en 2009 avec cette fois l’ « effet de serre » :

Capture d’écran 2015-09-10 à 08.13.18

on n’a pu que se poser quelques questions presque existentielles sur l’intégrité scientifique de cet organisme. On est à première vue attiré par les deux énormes flux d’énergie qui ne figuraient pas dans la première version. On est aussi étonné que la NASA ait tenté délibérément de brouiller les esprits en intervertissant pourcentages et valeurs des flux en W/m2, une sorte de tour de passe-passe injustifié mais grossier. Les chiffres en surimpression en rouge permettent de s’y retrouver : des watts/m2 dans le premier schéma et des pourcentages dans le deuxième. On a l’impression qu’il y a là comme une tentative d’arnaque scientifique. Tout semble à peu près similaire à une exception près et de taille. Les 15 % d’énergie absorbés par l’atmosphère dans la figure 1 (flèche orange horizontale) ont été remplacés par les énormes vecteurs rouges justifiant l’ « effet de serre ». La différence est loin d’être négligeable car il est très important pour justifier cet « effet de serre » putatif de considérer que seule l’atmosphère intervient dans la dissipation de l’énergie reçue du Soleil vers l’Espace et que la surface de la Terre ne joue qu’un rôle mineur comme l’indiquent ces deux gros flux d’énergie figurés par les flèches rouges.

Les modifications qui n’apparaissent que si on analyse ces schémas scrupuleusement sont les suivantes : les radiations thermiques (infra-rouges) de l’atmosphère et des nuages passent de 64 % dans le premier schéma à 58,8 % dans le second en se référant dans le bilan thermique à 50 % pour l’atmosphère et 8,8 % pour les nuages. Et en quelque sorte pour retrouver un semblant d’équilibre – le trucage est éminemment subtil car il n’apparait pas à première vue – les radiations infra-rouges en provenance de la surface de la Terre passent de 6 à 11,8 % : bel exemple de probité scientifique mais passons … Si on scrute plus en détail ces deux schémas, la ligne de base pour la question du CO2 reste inchangée : la couche fine de l’atmosphère terrestre reste capable sans aucun doute de transporter par rayonnement infra-rouge toute l’énergie reçue du Soleil. J’ajouterai à quelques points de pourcentage près car la Terre emmagasine tout de même de l’énergie solaire par capture de cette dernière au cours des mécanismes photosynthétiques des végétaux et du phytoplancton. Tant dans le schéma 1 que dans le schéma 2 CO2 et eau restent les « corps noirs » prépondérants contribuant à dissiper l’énergie solaire incidente vers l’Espace beaucoup plus efficacement que les autres gaz constituants de l’atmosphère. Il est nécessaire d’insister sur l’invraisemblable importance de ces flux d’effet de serre (back radiation) et de réémission depuis la surface de la Terre, 340 et 298 W/m2, des données naturellement non vérifiées et non vérifiables, à la vitesse de la lumière : 117,1 % dans un sens et 100 % dans l’autre sens : c’est un peu n’importe quoi !

Il est évident que ces affirmations mensongères de la NASA doivent être revisitées dans une approche pragmatique réalisée par des physico-chimistes sans aucun a priori politique ou idéologique et il est nécessaire de disposer de mesures précises sur toute la hauteur de la colonne atmosphérique stabilisée par le gradient adiabatique gravitationnel. Le fait que la Terre se comporte comme un corps noir à la température de – 18 °C n’est valide que pour les composants de l’atmosphère qui sont activés par le rayonnement infra-rouge et non pas par le rayonnement provenant de la surface de la Terre.

Oliver Geden, dans son commentaire adressé au Journal Nature a rendu publique la question de l’intégrité de la science climatique actuelle en citant les interférences nuisibles des « conseillers en climat » et le mélange des genres regrettable avec leurs orientations politiques et financières. Ce commentaire est donc opportun pour dénoncer la tournure qu’a pris la science climatique dans les moyens abordés pour justifier la validité de la question de l’effet de serre du CO2.

Le monde politique, finalement, est maintenant confronté à de réels problèmes comme la disponibilité des terres arables (j’en dirais un mot dans un prochain billet) pour nourrir la population, la disponibilité et l’utilisation des moyens financiers considérables détournés pour satisfaire la fausse science climatique au détriment du développement et de la santé de milliards de personnes mais pour le plus grand profit d’une poignée d’investisseurs internationaux anonymes ayant élu domicile dans des paradis fiscaux. Ces mêmes politiciens et les climatologues de l’IPCC qui sont payés pour les conseiller et les orienter dans leurs décisions doivent aussi prendre conscience du « hiatus » du non-réchauffement de ces quelques 19 dernières années malgré l’augmentation continue de la teneur en CO2 de l’atmosphère, observation qui à elle seule ruine toutes ces hypothèses fantaisistes d’effet de serre du CO2.

Illustrations : NASA et Nature. Sources : Dr Gerhard Stehlik, Hanau, Dr Vollrath Hoop, Dreieich, Allemagne, NASA et http://www.nature.com/news/policy-climate-advisers-must-maintain-integrity-1.17468

L’évolution humaine, un long parcours parfois semé d’embuches

Capture d’écran 2015-09-12 à 13.28.56

Le génome humain, comme d’ailleurs celui des autres êtres vivants possédant un noyau, on dit les eucaryotes, se caractérise par deux processus essentiels entrainant une variabilité génétique qui fait que nous avons évolué et sommes devenus différents du lointain ancêtre que nous partageons avec les grands singes et aussi que nous sommes tous différents les uns des autres : les SNPs ou polymorphismes apparaissant à la suite de la modification d’une seule base de l’ADN (Single Nucleotide Polymorphism) et les CNVs (Copy Number Variant) qui concernent le nombre de copies d’un gène. Un gène peut en effet être dupliqué ou éventuellement disparaître. Il s’agit alors d’une délétion qui peut être létale et ne sera donc pas transmise à la descendance. Avec l’apparition des machines de séquençage de l’ADN ultrarapide et de moins en moins coûteux et l’utilisation d’ordinateurs puissants pour analyser ces séquences on s’est rendu compte que les CNVs jouaient un rôle certainement plus important que les SNPs dans la variabilité des populations humaines. Les récents travaux qui ont permis de séquencer des génomes entiers de nos ancêtres éloignés ont permis de mettre en évidence cette importance des CNVs pour trouver une explication dans cette variabilité des populations humaines qu’on appelle d’ailleurs à tort des races.

Je profite de cette occasion pour préciser qu’il n’existe pas de races humaines mais seulement une espèce humaine avec des caractères phénotypiques différents selon les régions du globe. Utiliser le mot race est donc purement politique voire idéologique quand on parle des Bantous, des Peuls ou des Iroquois. Nous sommes tous des Homo sapiens sapiens … et nous devrions tous être frères et nous respecter les uns les autres.

Une étude récente pilotée par le Docteur Evan Eichler du Howard Hugues Medical Center de l’Université de Washington à Seattle a réuni les données relatives à l’ADN de 236 individus représentant 125 populations humaines différentes et 5 anciens ADNs, Neandertal, Denisovan et trois autres spécimens anciens. L’étude minutieuse des fréquences de duplication de gènes indique que 7 % de la totalité du génome est concernée par des CNVs alors que la variabilité induite par les SNPs ne représente que 1,1 % du génome. Les délétions non létales représentent 2,2 % et les duplications 4,4 % des CNVs. Pour affiner l’étude, seules les CNVs bis-alléliques ont été prises en compte. Je sens venir chez mes lecteurs un découragement devant la technicité de cette prose mais il faut rappeler que nous possédons deux fois 23 chromosomes et donc il existe deux copies de tous les gènes présents qu’on appelle allèles.

Capture d’écran 2015-09-14 à 09.07.23

Cette étude a mis en évidence la présence de CNVs provenant des Denisovan chez les Papous de Bornéo et de l’archipel de Bougainville qui se situe au sud-est de Bornéo et au nord des îles Salomon. Cette introduction d’une CNV caractéristique est apparue il y a 170000 ans chez les Denisovan et elle n’a été retrouvée par la suite que chez les Papous sur le chromosome 16 et non chez les aborigènes d’Australie, par exemple. De plus elle constitue la plus importante présence de gènes archaïques dans une population humaine moderne et elle a été incorporée (on dit introgression) chez les Papous il y aurait environ 40000 ans. Il faut noter qu’aucune duplication d’origine néanderthalienne n’a pu être identifiée et qu’enfin les CNVs des populations africaines ne diffèrent pas des autres populations en termes de duplication de gènes.

Quant aux CNVs relatives à des délétions, ce sont toujours des évènements ponctuels provenant probablement d’un seul individu et transmis à la descendance quand celles-ci sont non létales. Les populations non africaines montrent une plus grande fréquence de SNVs de délétion car ces populations ont été soumises à des évènements successifs de pression de sélection génétique au cours du temps. Sur cette base il a pu être mis en évidence un isolement génétique des populations océaniennes Papous-Bougainville mais également des populations amérindiennes. La grande variabilité génétique des populations africaines réside dans le fait qu’elles sont toujours restées en contact durant l’évolution. Enfin les CNVs introduisant des duplications favorisent l’adaptabilité des personnes lorsque celles-ci sont soumises à une pression de sélection constante. Ce fut le cas des Denisovan qui divergèrent des autres non-africains il y a 440000 ans. Les Denisovan et les Néanderthaliens divergèrent il y a environ 700000 ans. Il est intéressant de rappeler ici que la deuxième vague « out of Africa » se situe justement aux alentours de 450000 ans avant notre ère et que la divergence entre humains et grands singes remonte avant 3 millions d’années.

Certaines CNVs ont été associées avec une adaptation positive ou au contraire négative à l’environnement. Par exemple une CNV sur le chromosome 16 concernant une haptoglobine et présente uniquement dans les populations africaines est associée à une résistance à la maladie du sommeil, alors qu’une CNV sur le chromosome 3 concernant une transférine provoque une sensibilité à une fièvre hémorragique provoquée par un arenavirus et est présente uniquement chez les Amérindiens.

L’évolution humaine est loin d’être terminée et Charles Darwin, encore vivant, serait émerveillé par cette étude. L’être humain a mis au point plusieurs stratégies pour s’adapter génétiquement à son environnement et les CNVs semblent compter parmi les plus puissantes.

Source : Science, 6 août 2015, 10.1126/science.aab3761 , illustrations tirées de l’article de Science aimablement communiqué par le Docteur Evan Eichler et AAAS News.

Savons au triclosan : oubliez, c’est totalement inefficace et de surcroit dangereux !

Capture d’écran 2015-09-16 à 21.48.28

En avril 2014 j’appuyais sur la sonnette d’alarme au sujet du triclosan (voir le lien) et une nouvelle étude vient non pas de confirmer les effets cancérigènes du triclosan qui ont été démontrés chez les souris et qu’il était un perturbateur endocrinien mais de montrer que le triclosan n’a aucun effet bénéfique sur l’hygiène. Un savon sans triclosan est tout aussi efficace qu’un savon en contenant. Pour que cet antiseptique agisse pleinement il faudrait laisser ses mains au moins neuf heures dans un lavabo avec du savon auquel a été ajouté ce triclosan pour être vraiment certain que les mains ont été parfaitement nettoyées. Encore une fois cette affaire c’est du gros business – 1,5 milliard de dollars par an – et ce qui est le plus inimaginable est que tout le monde y croit. Johnson & Johnson, Unilever ou encore Procter & Gamble se moquent complètement que ce produit perturbe les récepteurs des hormones stéroïdes alors qu’il est totalement inefficace en termes d’antiseptique. On se trouve donc encore une fois confronté à de la fausse science mais cette fois-çi elle n’est pas véhiculée par des magazines de caniveau mais par d’importantes multinationales de la chimie. Longue vie à ces compagnies mais aussi longue vie à la bêtise humaine qui n’a d’équivalent que l’immensité de l’univers.

Source : The Guardian

https://jacqueshenry.wordpress.com/2014/04/26/il-faut-interdire-le-triclosan/

Répartition des réfugiés: l’Europe s’est couverte de honte

Capture d’écran 2015-09-15 à 13.30.17

Berlin – Le vice-chancelier allemand, Sigmar Gabriel, a estimé mardi que l’Europe s’était couverte de honte après l’échec la veille d’une réunion ministérielle à Bruxelles sur la répartition des réfugiés au sein de l’Union européenne. ( … ) (©AFP / 15 septembre 2015 11h45)

L’Europe dans son ensemble récolte les fruits de ce qu’elle a semé de par le monde en suivant aveuglément les Américains dans leurs entreprises guerrières. Depuis septembre 2001, les Américains ont attaqué et assassiné les citoyens de 9 pays : Irak, Afghanistan, Yémen, Syrie, Somalie, Ethiopie, Soudan, Libye et Pakistan en destituant des leaders politiques le plus souvent mis en place démocratiquement, en finançant des guerres civiles et bien d’autres coups tordus pour y installer la démocratie et la liberté selon le modèle américain …

Quelle est la situation aujourd’hui ?

Afghanistan : 2590000 personnes ont fui leur pays, Irak : 370000, Syrie : 3880000, Somalie : 1100000 et Yémen : 130000 pour l’instant (données datant de 2014). Le HCR estime que près d’un million de Libyens vivent précairement en Tunisie. Au total, et ce n’est qu’une estimation qui date d’un an, plus de neuf millions de réfugiés ont été générés par les interventions américaines dans ces pays. Le même HCR considère que près de 20 millions de personnes sont déplacées dans leur propre pays en quittant les zones de combat. Après avoir semé la terreur et tué aveuglément des civils avec des armements non conventionnels comme les drones qui n’ont jamais été reconnus par les conventions internationales ad hoc, en utilisant des bombes à fragmentation pourtant interdites ou pire des bombes incendiaires contre les civils sous prétexte que ces dernier hébergent des terroristes – selon la définition de la Maison-Blanche – c’est maintenant à l’Europe de s’occuper des réfugiés et c’est bien normal puisque l’Europe sous couvert de l’OTAN a « collaboré » avec le terrorisme américain.

Sous prétexte d’instaurer la pax americana et la démocratie dans ces pays, les USA restent pourtant les alliés indéfectibles d’un des Etats les plus archaïques au monde en termes de liberté individuelle et de droits de l’homme (et de la femme), l’Arabie Saoudite, dont l’obscurantisme législatif n’a même pas besoin d’être rappelé ici. Tout simplement parce qu’il y a beaucoup d’argent dans ce pays et qu’il est un excellent client du complexe militaro-industriel américain. Les Américains ont soutenu la rébellion en Syrie considérant qu’Assad était un tyran qu’il fallait éliminer avec une grosse tare qui entache sa réputation auprès des néo-conservateurs du Congrès et du Sénat, la Syrie est un allié de la Russie ! Aujourd’hui, en Afghanistan, en Irak et en Syrie comme en Libye c’est le chaos. Le terrorisme financé par la CIA et l’Arabie Saoudite s’est répandu dans toute la région et au-delà …

Les Américains ont détruit des pays entiers au nom de la démocratie avec la complicité de l’Europe. Pire encore les Américains se sont arrogé le droit de rançonner des banques tant américaines qu’européennes sous prétexte qu’elles avaient fait des « affaires » en dollars avec des pays inscrits sur la « liste noire » de la Maison-Blanche. L’Amérique s’est approprié le monde entier au nom de la démocratie alors que ce concept est hautement contestable aux USA même avec la violation des libertés individuelles (Patriot Act et NSA) et la violence policière omniprésente. L’Europe, abject vassal des USA, ne s’entend pas sur les quotas de réfugiés à attribuer à chaque pays alors que la Jordanie (sous perfusion américaine) en accueille 4,8 millions et le Liban près d’un million (données du HCR récentes). Et cerise sur ce gâteau sanglant, le Turc Erdogan en profite pour faire diversion et continuer à massacrer les Kurdes avec naturellement de l’armement américain.

C’est ça la démocratie à l’Américaine, d’abord du sang et des destructions systématiques et ensuite le chaos. Que les Européens se débrouillent avec les réfugiés fuyant les massacres fomentés par les Américains, ce n’est pas le problème de la Maison-Blanche. Mesdames et Messieurs les Chefs d’Etat Européens, assumez vos erreurs, le temps est venu pour l’Europe de se désolidariser de ces criminels au pouvoir à Washington !

Note : les données relatives aux réfugiés proviennent du HCR pour l’année 2014 (illustration), la situation a empiré significativement depuis ces dernières statistiques lugubres : http://unhcr.org/556725e69.html#_ga=1.120039752.1140273933.1441369136

Nouvelles du MRSA

Capture d’écran 2015-09-15 à 10.55.20

La lutte contre le staphylocoque multirésistant (MRSA) s’intensifie et on doit une nouvelle avancée qui n’en est pas une à un biologiste de la Brigham Young University de l’Église Mormon à Provo dans l’Utah. Le père de ce biologiste avait du être amputé d’une jambe à la suite d’une infection par des staphylocoques et le Docteur Jacob Hatch en voulait personnellement à cette bactérie. Il a donc recherché des bactériophages susceptibles d’attaquer cette sale bête et après un travail acharné a enfin isolé plusieurs souches et quelques-unes d’entre elles se sont révélées efficaces – pour le moment en laboratoire – pour mettre un terme à la prolifération du staphylocoque dans des boites de culture. Ce travail vient d’être publié dans PlosOne (en accès libre, voir le lien) et permettra peut-être de relancer le programme européen de phagothérapie dont on parle peu, du moins dans la presse scientifique.

Comme je l’avais exposé dans un billet de ce blog en mars dernier, il serait astucieux de collaborer avec les hospitalo-universitaires géorgiens qui utilisent la phagothérapie depuis de nombreuses années pour mettre au point un traitement efficace afin de contrôler les infections dues au staphylocoque car la situation est devenue justement hors de contrôle et plus de 25 % des malades victimes de MRSA en meurent. Les feuilles de châtaigner (voir le lien) constituent un espoir mais très certainement limité à des usages topiques – comme les bactériophages d’ailleurs – mais on peut toujours espérer car comme le disait Guillaume d’Orange « il n’est point nécessaire d’espérer pour entreprendre ni de réussir pour persévérer ». Quand Jacob Hatch a initié ses travaux de recherches de bactériophages dirigés contre les staphylocoques il n’avait aucune idée de la réussite de son travail d’investigation …

Sources : http://news.byu.edu/archive15-sep-mrsaphages.aspx

http://journals.plos.org/plosone/article?id=10.1371/journal.pone.0131714

Illustration : Brigham Young University News

https://jacqueshenry.wordpress.com/2015/08/30/les-feuilles-de-noisetier-une-nouvelle-arme-contre-le-staphylocoque/

https://jacqueshenry.wordpress.com/2015/03/19/bacteriophages-et-geopolitique-un-bien-desolant-melange/

La recherche médicale : majoritairement frauduleuse, c’est rassurant !

Capture d’écran 2015-09-14 à 09.19.39

Quand le Dr Richard Horton, rédacteur en chef du prestigieux journal de science médicale The Lancet, se met à douter de la science, il ne faut pas prendre ses propos à la légère. Je cite le docteur Horton : « Cette affaire d’anti-science est simple : une grande partie de la littérature scientifique, peut-être la moitié, est tout simplement falsifiée. Pourrie par le caractère étriqué des échantillons étudiés, des effets observés pratiquement imperceptibles, des analyses exploratoires et des protocoles expérimentaux sans valeur sans oublier les conflits d’intérêt flagrants, en ajoutant l’obsession pour la poursuite dans des tendances douteuses à la mode du moment. La science a pris un virage vers les ténèbres ».

On ne peut pas mieux résumer l’état délabré de l’honnêteté scientifique et pour une fois je ne parlerai pas du climat mais de la recherche médicale encore que cette remarque peut s’appliquer pleinement à la recherche climatique si tant est qu’il s’agit bien de recherche. Premier point abordé par le Dr Horton la notion de peer-review est maintenant galvaudée pour le plus grand profit de groupes de pression et dans la recherche médicale il s’agit des grands laboratoires pharmaceutiques. Le Dr Horton le reconnaît, même cette institution vénérable qu’est The Lancet est pratiquement contrôlée par le lobby de la pharmacie. Les manuscrits soumis pour publication n’ont même plus l’apparence de travaux scientifiques. À la première lecture on comprend que les auteurs des articles se sont arrangé pour obtenir des résultats concordant avec une hypothèse pré dictée par les compagnies finançant ces travaux.

Le Docteur Marcia Angell, éditeur en chef du non moins prestigieux New England Medical Journal abonde dans le sens de Horton : « Il est devenu tout simplement impossible de croire en la validité des recherches cliniques publiées ou de se reposer sur le jugement d’autorités médicales reconnues. Après vingt années au poste d’éditeur en chef de ce journal je ne peux que faire ce constat écoeurant ».

Le nombre de fraudes scientifiques est devenu invraisemblable. La plupart des publications concernant par exemple certains vaccins et financées par les compagnies pharmaceutiques violent de manière flagrante la convention internationale d’Helsinki sur l’éthique médicale et les bonnes pratiques de laboratoire. Il en est de même pour un grand nombre de médicaments dont les effets adverses voire toxiques ont été sciemment dissimulés par ces mêmes compagnies pharmaceutiques. La grande majorité des recherches sur le cancer ne sont que frauduleuses. Le Docteur John Bailer, Directeur du Centre américain de recherche sur le cancer, ne prend pas de pincettes rhétoriques quand il déclare : « Mon sentiment général est que le programme national de recherche sur le cancer est un échec total ». Il ajoute que la grande majorité des traitements pharmacologiques contre le cancer ont été des fiascos complets. Il reconnaît que la majorité des fonds dédiés à la recherche sur le cancer ont été déviés vers la recherche sur les animaux qui est complètement inutile car les humains ne fonctionnent pas à l’évidence comme les animaux de laboratoire. Presque tous les traitement anti-cancéreux ont été découverts et mis au point en milieu hospitalier et non en laboratoire avec des animaux et pourtant l’essentiel des crédits de recherche alloués vont vers les laboratoires pharmaceutiques qui utilisent ces modèles animaux éloignés de la réalité et donc inutiles.

L’une des plus grandes fraudes de ces 30 dernières années est le fluor supposé améliorer la santé des dents et du squelette. Ce ne sont même plus des compagnies pharmaceutiques qui sont impliquées dans ce scandale mais des fabricants de lessives et les compagnies de distribution de l’eau qui ajoutent du fluor dans l’eau ! Le docteur Irwin Bross, ancien directeur du Sloan-Kettering Cancer Research Institute, n’y va pas par quatre chemins à propos du fluor des pâtes dentifrice et de l’eau du robinet : « Le fluor cause plus de cancers que toutes les autres substances chimiques. J’en suis arrivé à cette conclusion scientifiquement et biologiquement évidente après mes 50 années de recherche sur le cancer ». Les cancers causés par le fluor représentent deux fois plus de cas que les cancers du sein et, pire, deux fois plus de cas que les cancers du poumon des fumeurs. Le gros souci est qu’on retrouve ce fluor dans toutes les boissons industrielles, sodas, bières et autres jus de fruits. Sous prétexte d’améliorer la santé dentaire le fluor des pâtes dentifrices et de l’eau constitue aussi selon le Docteur Dean Burk un crime des autorités publiques en favorisant l’apparition de millions de cas de cancer. Enfin pour l’anecdote, aucun des soit-disant travaux scientifiques sur les effets du cannabis sur la douleur ou le cancer n’a fait l’objet d’études cliniques sérieuses reconnues pour leur probité. Il s’agit encore d’anti-science caractérisée.

Finalement le monde scientifique revient à grands pas vers l’époque des alchimistes et pire encore vers l’âge des cavernes. Quand la science régresse comme on peut s’en rendre compte, alors l’humanité toute entière régresse. Et paradoxalement les éditeurs des journaux scientifiques sont aussi complices de ce délabrement de la qualité scientifique car ils se soucient du facteur d’impact de leur journal. En quelque sorte « il faut faire du chiffre » quitte à ignorer les règles les plus élémentaires de l’honnêteté et de l’éthique. Bien évidemment cette situation n’est pas unique à la recherche bio-médicale …

Sources :

https://en.wikipedia.org/wiki/Declaration_of_Helsinki

https://www.youtube.com/watch?v=ClqK7XvfLg0

http://www.ncbi.nlm.nih.gov/pmc/articles/PMC2964337/

http://www.thelancet.com/pdfs/journals/lancet/PIIS0140-6736%2815%2960696-1.pdf

Changement climatique, épisode 7 : quand la NASA confirme le refroidissement climatique à son insu

Hurricane_Wilma_21_oct_2005_1625Z

Depuis l’ « atterrissage » de l’ouragan Wilma en 2005, il s’est passé neuf années sans qu’aucun phénomène de ce type ait eu lieu sur les côtes américaines. Les météorologues appellent ça une « sécheresse » d’ouragans … Il faut dire qu’ils puisent dans leur vocabulaire professionnel pour qualifier ce qu’ils observent et ils ont raison car ainsi ils savent à peu près de quoi ils parlent. Et ce phénomène de sécheresse particulièrement longue n’était pas arrivé depuis 177 ans ! Parallèlement la fréquence de phénomènes météorologiques violents comme les tornades a également diminué au cours des dix dernières années. Il n’en a pas fallu plus pour que des fonctionnaires de la NASA (Goddard Institute à New-York) fassent mouliner des ordinateurs pour expliquer cet étrange situation complètement inattendue puisque le réchauffement climatique global d’origine humaine prévoit au contraire une fréquence de plus en plus élevée de phénomènes météorologiques comme des ouragans de plus en plus violents.

Les simulations numériques minutieusement réalisées ont exclu tous les ouragans de catégorie inférieure à 3 (échelle de Saffir-Simpson) c’est-à-dire que les ouragans Ike (2008), Irene (2011) et Sandy (2012) n’ont pas été pris en considération. Le modèle développé (encore une fois les prédictions n’engagent que les ordinateurs) pour prédire l’arrivée sur le sol d’ouragans a abouti à ceci :

Capture d’écran 2015-09-10 à 18.21.22

Du bleu foncé au rouge : ouragans de catégorie de 1 à 5 sur l’échelle de Saffir-Simpson. En pointillé la courbe correspondant à un événement de probabilité nulle. L’échelle est logarithmique (drought = sécheresse qu’on peut traduire par absence). Ce graphique se lit ainsi : la probabilité pour qu’il n’y ait pas d’ouragans de catégorie 3 (en vert) pendant une période de 10 années consécutives serait de 500 ans et d’ouragans de catégorie 4 pendant une même période de 10 années serait de 40 ans.

Si on considère les dates mentionnées dans cet article, 177 ans avant le début de cette présente période de « sécheresse » d’ouragans il se trouve que l’on se retrouve en 1829 (2015 – 9 – 177). Retranchons encore 9 années et on arrive à l’année 1820 c’est-à-dire très exactement à la fin du deuxième cycle solaire très déficitaire du petit âge glaciaire qui sévit au début du XIXe siècle et appellé le minimum de Dalton. Or le dernier cycle d’activité solaire (24e) qui se termine en ce moment (ne figure pas dans l’illustration ci-dessous) est à peu près comparable en nombre de taches et en intensité aux deux cycles qui induisirent ce petit âge glaciaire.

Sunspot_Numbers - copie

Je cite la conclusion de l’article paru dans Geophysical Resarch Letters : « A hurricane climate shift protecting the U.S. during active years, even while ravaging nearby Caribbean nations, would require creativity to formulate. We conclude instead that the admittedly unusual 9 year U.S. Cat3+ landfall drought is a matter of luck » et en français : il faudrait de la créativité pour expliquer que le changement climatique protège les côtes américaines des ouragans durant les saisons actives (comprenez pendant la saison des ouragans) alors qu’ils ravagent les nations des Caraïbes. Nous concluons plutôt que cette période inhabituelle de 9 années sans atterrissage d’ouragans de catégorie supérieure à 3 relève de la chance.

C’est écrit noir sur blanc, vérifiez par vous-même, l’article est en libre accès. Il est tout de même incroyable que les auteurs de cet article n’aient même pas eu l’idée d’établir une relation avec la faiblesse du cycle solaire 24 alors qu’ils sont fonctionnaires de la NASA et payés pour étudier l’activité solaire, le climat, la météorologie et accessoirement le taux de natalité des petits hommes verts. Il y a là matière à émettre de sérieux doutes quant à la valeur scientifique des nombreux travaux émanant des divers secteurs de la NASA car à l’évidence les auteurs manquent de sens critique et, comme ils l’avouent explicitement, de créativité … Cependant cet article apporte une magnifique preuve du refroidissement climatique en cours, mais chutt ! il ne faut surtout pas en parler.

Source : DOI: 10.1002/2015GL063652 . Illustration (NOAA) ouragan Wilma touchant la péninsule du Yucatan (catégorie 5). Il passera quelques jours plus tard sur la Floride.

Billet d’humour politique : Rouge à Gauche, Bleu à Droite

Dans le genre humour, un de mes très fidèles lecteurs m’a glissé une idée de son cru pour tenter d’inverser la courbe du chômage qui est l’une des obsessions du Président français. Il s’agit d’une simple observation de bon sens. Partout dans nos chaumières et même bien au-delà des frontières hexagonales les robinets d’eau respectent une convention dont l’origine semble provenir de l’Assemblée Nationale française, ce bâtiment gréco-romain supposé symboliser la démocratie et qu’on appelle caricaturalement le Palais Bourbon probablement en mémoire de la famille royale française, mais je m’égare … À la gauche de l’hémicycle il y a la Gauche, une émanation des Montagnards, mais oui les traditions dans cet endroit ne se perdent pas. À droite il y avait les Girondins mais c’est maintenant la Droite, par opposition à la Gauche quand naturellement on se trouve assis sur le perchoir du Président de l’Assemblée. La couleur de la Droite est plutôt bleue, tirant même vers le bleu marine voire le noir, alors que celle de la Gauche est plutôt rouge et même franchement rouge du genre drapeau de la Chine communiste ou des bannières de la CGT.

La politique française se caractérise par le fait qu’il y a un mélange des couleurs : la gauche rouge finit un jour par faire une politique de droite bleue et vice-versa. Tout se mélange et on n’a plus de repères.

Pour les robinets, c’est la même chose : chaud et rouge à gauche, bleu et froid à droite, le sang du peuple à gauche, le froid de la finance à droite, encore que la finance est présente des deux côtés puisque la politique c’est avant tout une affaire de gros sous. Quand on mélange ça donne de l’eau tiède, c’est-à-dire un truc insipide. De l’Assemblée il ne sort que des trucs insipides, des lois croquignolesques le plus souvent inappliquables, des commissions théodulesques, petites ou grosses, qui sont tout aussi inutiles les unes que les autres, qui pondent à grands frais, de transpiration, de grattage compulsif de crane et de petits fours des documents imbuvables et le plus souvent tièdes, bref, la Droite et la Gauche se mélangent pour garder le pouvoir quoi qu’il arrive. On en est à la cinquième république et c’est toujours le même recommencement : on mélange, on mélange pour ni trop refroidir ni trop réchauffer les citoyens qui ont mis au pouvoir ces gens-là et qui n’ont rien d’autre à faire, je parle des citoyens, que de subir en silence les décisions des Rouges et des Bleus, de courber le dos et d’ouvrir leurs poches pour satisfaire la voracité du percepteur.

Alors que faire ? Pour résorber le chômage il faut créer une véritable armée de plombiers qui intervertiront tous les robinets dans toutes les maisons de France pour briser ce cercle vicieux. Il y a des centaines de millions de robinets à modifier et cette opération apportera du travail à des dizaines de milliers de plombiers pendant plusieurs années. Naturellement il faudra aussi modifier les robinets de l’Assemblée Nationale et par conséquent modifier la répartition des sièges en mélangeant les Bleus et les Rouges et ainsi tout restera assurément tiède et lénifiant. Pour le Sénat, je suggère qu’on arrête définitivement toute arrivée d’eau pour que ces fossiles vivants inutiles disparaissent tous, terrassés de soif. Au final la politique sera devenue tellement mièvre et inutile qu’on supprimera tous ces politiciens rouges ou bleus qui finalement ne servent qu’à endormir la population dans la tiédeur de leurs légiférations inutiles.

Que l’on rétablisse vite une vie de contrastes, qu’on prenne des douches froides pour se clarifier l’esprit, qu’on se lave aussi dans le même but le visage avec de l’eau brûlante pour faire circuler le sang et enfin raviver nos neurones endormis par les discours politiques d’une tiédeur écoeurante et repoussante. Que les Italiens, les Espagnols, les Belges et bien d’autres prennent la même décision pour leur bien afin de rompre le cycle infernal de la tiédeur politique : qu’on change tous les robinets et pas question de faire appel à des plombiers polonais !