Billet d’humeur politique : quel avenir pour l’Europe ? Le chaos.

On ne peut que constater avec effroi que l’Union Européenne n’est qu’une construction artificielle autour d’une Commission qui n’a aucune légitimité démocratique mais détient le pouvoir absolu, d’un Parlement incroyablement coûteux sans réel pouvoir et d’une monnaie qui n’a fait qu’accentuer les disparités entre les pays du nord et du sud. Cette monnaie commune, très pratique par ailleurs, est surveillée de près par la BundesBank et ce n’est pas un hasard si les sièges de la BCE, de la Banque centrale allemande, de Deutsche Bank (la plus grosse banque d’Europe) et de la bourse allemande sont tous à Francfort, en quelque sorte le « Wall Street européen » en dehors naturellement de la City. De ce fait l’Union Européenne est soumise aux exigences des Allemands avec un gouverneur central, cerise sur ce gâteau de billets, qui est un ex de Goldman-Sachs, banque d’affaires ayant organisé en sous-main la fraude grecque pour son admissibilité dans l’Union Européenne.

Venons-en au problème des réfugiés du Moyen-Orient qui fuient les exactions de fous de dieu sanguinaires financés par l’Arabie Saoudite et armés et entrainés par les Américains. Angela Merkel, cette démagogue écolo crypto-marxiste, il faut appeler un chat un chat, elle qui a tout de même vécu une grande partie de sa vie endoctrinée par le régime est-allemand (ça laisse indubitablement des traces), veut imposer ses vues de « mamie protectrice » aux autres pays européens pour accueillir des réfugiés qui auront immédiatement droit à toutes sortes d’aides payées par les contribuables afin que les gouvernements se donnent bonne conscience. C’est facile à comprendre, l’Allemagne manque de main-d’oeuvre car les baby-boomers de l’après-guerre partent massivement à la retraite. Faut-il donc que tous les pays européens imposent des efforts à leur propre population pour accueillir ces réfugiés et ainsi soulager les capacités d’intégration de l’Allemagne ? Les fondations même de l’Europe sont menacées non pas par cet afflux d’exilés volontaires comme le prétendent certains politiciens mais par l’autoritarisme allemand qui, vassal des USA depuis 1945, veut imposer sa vision politique et économique à tous les autres pays européens. Pour ma part, mais je ne partage mon opinion qu’avec moi-même comme disait très justement Desproges, je parierai volontiers que les Anglais vont choisir une désolidarisation de l’Union Européenne lors des prochaines élections et le parti conservateur restera au pouvoir, tant mieux pour les Anglais !

Et si vous voulez encore une louche pour le dessert, je rappelle que les frontaliers français qui travaillent dans le Duché du Luxembourg (il y en a à peu près cent mille) perçoivent des salaires mirobolants et ne sont que de simples RMIstes en France qui ont droit à la CMU (je ne sais pas si ce truc existe toujours sous ce nom) et également à des aides pour le chauffage – il fait déjà froid dans les Ardennes, 5° ce matin – on ferait la révolution pour moins que ça mais ce sont les lois européennes de bonne entente entre voisins… Pour les réfugiés politiques en provenance du Moyen-Orient il faudra revoir la copie !

Trouver l’âme sœur …

Capture d’écran 2015-09-20 à 17.28.05

Qu’est-ce qui fait qu’une femme et un homme arrivent à trouver une harmonie qui leur permet d’envisager une vie de couple. Il s’agit là de la préoccupation des sites de rencontre, on parlait autrefois des agences matrimoniales, qui à l’aide de logiciels spécialisés analysent maintenant les « préférences » de chacun des potentiels partenaires, femmes ou hommes pour organiser des rencontres « mathématiquement favorables ». Et c’est un marché juteux ! Mais quelle est la part de vérité quand, après avoir payé une certaine somme d’argent, le site (ou l’agence) vous propose « le » ou « la » partenaire idéal(e) pour une rencontre qui a le maximum de chances de se concrétiser en une union durable. C’est ce qu’ont voulu savoir avec précision des spécialistes du comportement humain en grande partie issus de l’Université de Californie à Los Angeles (UCLA) en analysant avec la plus grande rigueur les réponses à deux questionnaires englobant plus de 28000 personnes, femmes ou hommes, hétérosexuels, en quête de l’âme sœur. Et les résultats obtenus sont intéressants à plus d’un titre.

Au cours de l’évolution les êtres humains ont privilégié les couples stables dans le temps afin d’assurer une descendance, avec cependant quelques exceptions de sociétés où apparaissaient des structures polygames. Il est intéressant de rappeller que la polygamie ne peut exister que lorsque l’homme peut subvenir matériellement et financièrement aux moyens de subsistance de plusieurs femmes, ce qui rend cette situation relativement rare même quand elle est autorisée par la loi. Par instinct, la femme recherche un partenaire susceptible, donc, de lui assurer le gite et la nourriture pour qu’elle puisse s’occuper des enfants à naître. Les sites de rencontre se sont rendu compte que les hommes ayant un statut social élevé et un revenu confortable étaient beaucoup plus sollicités que ceux qui, en toute honnêteté, déclaraient au contraire une situation sociale moins enviable.

Dans ce contexte les femmes recherchent un partenaire plus agé et ayant suivi des études éventuellement supérieures dans la mesure où ces deux critères constituent un espoir de ressources stables et de statut social élevé. À l’inverse les hommes recherchent une partenaire plus jeune ayant un potentiel reproductif plus élevé. Ces deux critères expliqueraient qu’il existe presque toujours une différence d’âge marquée chez les couples qui se sont formés en faisant appel aux services d’un site de rencontre.

Si l’on s’intéresse à l’attractivité physique, il apparaît que les hommes sont « plus regardants » que les femmes. Un critère utilisé est l’indice de masse corporelle (BMI en anglais) systématiquement indiqué par les agences de rencontre. Ce n’est pas la fraîcheur de la peau ou la symétrie du visage qui sont importants mais la silouette. Et ce critère de sélection est valable aussi bien pour les hommes que pour les femmes : assez paradoxal dans un pays, les USA, où près de 60 % de la population est en surpoids … Bref, cette étude a analysé une série de critères allant des revenus financiers, du niveau d’éducation, de la couleur des cheveux, la taille, le poids, le passé sexuel et matrimonial et enfin le désir (ou non) de fonder ou refonder un foyer. La question était à peu près la suivante : « quels traits trouveriez-vous désirables ou indésirables chez un (ou une) partenaire en vue de fonder un couple stable sur le long terme ? ».

Il est apparu très nettement que le critère principal de sélection chez l’homme est l’apparence physique et chez la femme le niveau de revenus, en d’autres termes on peut se demander si ce genre d’institutions a de réelles chances de succès ! Comme l’indique la figure ci-dessous tirée de l’article paru dans la revue Personality and Individual Differences ( doi:10.1016/j.paid.2015.08.041 ) en accès libre, la femme privilégie les revenus financiers et la stabilité professionelle de l’homme alors que ce dernier attache une plus grande importance à l’aspect physique de sa « future partenaire ». Selon les ages plus l’homme est agé plus il est sélectif et c’est l’inverse chez les femmes. Cependant au delà de la quarantaine les critères de sélection des hommes s’estompent quant à l’aspect physique des femmes recherchées. Pour les non-anglophones le mot slender signifie sveltesse ou minceur, c’est selon.

Capture d’écran 2015-09-20 à 11.36.16

Comme on pouvait s’y attendre le niveau éducatif joue un grand rôle dans les critères de sélection. De même, une femme ou un homme se considérant comme satisfaisants en termes d’apparence physique ou disposant de revenus confortables sont beaucoup plus sélectifs. Ceci n’est pas surprenant dans la mesure où l’apparence joue un grand rôle, en particulier aux USA. Encore que les femmes sont généralement moins sélectives quant à l’aspect physique de leur éventuel futur partenaire, 58 % contre 80 % pour les hommes. Mais en définitive c’est le désir de créer une union stable qui l’emporte rationellement au niveau individuel. Reste à trouver des statistiques sur le taux de réussite des couples se formant par l’intermédiaire de sites de rencontre, aucune donnée fiable n’existe. En étant optimiste ce serait quelques pourcents …

Source : voir le lien, illustration Wikimedia

Changement climatique, épisode 9 : Les fraudes répétées de la NASA et de la NOAA

Il y a quelques jours une information inonda tous les médias main-stream pour faire une piqûre de rappel tant à l’opinion publique qu’aux dirigeants politiques à l’approche du grand raout organisé par Mademoiselle Ségolène dans deux mois : 2015 l’année la plus chaude depuis … on ne sait plus trop. Bref, l’information provenait de la NASA et de l’agence météorologique américaine (NOAA) qui travaillent de concert pour dénombrer les petits nuages, les grosses dépressions tropicales, la fonte des glaces (voir un prochain billet sur ce blog) et les incendies en Californie. Parce que toutes les nouvelles sont alarmantes et doivent l’être quand il s’agit de climat, c’est urgent et nécessaire.

Pas de chance pour la NASA, on peut retrouver ses fraudes répétées. Voici 4 illustrations tirées du blog de Steven Goddard. Elles se passent de commentaires. Les cercles rouges montrent la progression de la fraude.

Capture d’écran 2015-09-21 à 09.30.03

Capture d’écran 2015-09-21 à 09.32.22

Capture d’écran 2015-09-21 à 09.31.09

Capture d’écran 2015-09-21 à 09.28.57

Cancer du sein : une origine virale ?

Capture d’écran 2015-09-17 à 17.47.39

Les progrès dans l’identification non équivoque de l’ADN à l’aide des techniques de séquençage actuelles ont ouvert un immense champ d’investigation et parfois il est surprenant d’en découvrir les résultats obtenus. J’avais relaté il y a quelques jours la présence de cellules foetales chez la mère, identification rendue possible par la puissance des machines de séquençage. Tout en restant prudent quant à l’interprétation de résultats scientifiques parfois déroutants mais aussi et souvent non concluants, il faut dans ce genre d’investigation disposer d’outils permettant d’atteindre une spécificité indiscutable, le risque étant que dans le cas contraire on peut raconter n’importe quoi.

Une récente étude parue dans PlosOne et réalisée à l’Université de Berkeley fait un peu froid dans le dos dans la mesure où toutes les précautions ont été prises pour ne pas décrire un simple artefact. Il s’est agi de montrer que sans aucun doute un ADN d’origine virale était retrouvé presque systématiquement dans les cancers du sein.

Il y a peu de virus reconnus pour leurs propriétés oncogènes chez l’homme. Seulement six virus ont été identifiés. Le plus connu est l’HPV (virus du papillome humain) qui est à l’origine de presque la totalité des cancers du col de l’utérus et qui provoque également des cancers de l’anus et certains cancers de l’oropharynx. Le second virus directement lié à l’apparition d’hépatocarcinomes est celui de l’hépatite (types B et C). Celui d’Epstein-Barr provoque le lymphome de Burkitt et des carcinomes du oropharynx. Restent enfin l’HTLV-1 à l’origine de leucémies à cellules T et un sous-type du virus de l’herpès (type 8) qui est lui à l’origine du sarcome de Kaposi que l’on observe que chez les personnes immunodéprimées.

Pour ce qui concerne ces travaux sur les tumeurs mammaires les analyses ont concerné 114 biopsies liées à des tumeurs invasives, 21 à des stades pré-tumoraux (mastectomies dans les deux cas) et 104 biopsies de sujets sains provenant de femmes ayant subi une mammoplastie. Ce ne sont pas les virus énumérés ci-dessus dont la présence a été recherchée dans ce biopsies mais l’ADN d’un virus animal normalement anodin pour l’homme, celui de la leucémie bovine (BLV), très proche de l’HTLV dont on suspectait un éventuel rôle dans l’apparition de cancers du sein par analogie avec un virus présent chez la souris, très proche également de l’HTLV, et qui provoque des tumeurs mammaires. À l’aide d’anticorps dirigés contre la protéine de l’enveloppe du BLV une étude montra en 2003 que dans près de 40 % des tumeurs mammaires humaines on retrouvait la présence de cette protéine sans en tirer de conclusions à l’époque.

On connaît assez bien l’étiologie des tumeurs mammaires. À peine 10 % d’entre elles sont d’origine génétique. Pour le reste on a incriminé l’âge, le passé reproductif des femmes, grossesses ou non, allaitement ou non, l’utilisation de produits hormonaux de substitution ou des contraceptifs, le régime alimentaire, bref mis à part certains traitement hormonaux prescrits après la ménopause et de très rares cas déclenchés par des traitements à l’aide de radiations ionisantes, aucune conclusion claire n’a pu être apportée pour les causes initiales des cancers du sein. Après ces travaux datant de 2003, les progrès qu’a connu la biologie moléculaire ont conduit les biologistes à se pencher à nouveau sur cette présence d’un antigène viral d’origine bovine.

Pour lever toute ambiguité la sonde utilisée pour amplifier l’ADN présent dans les biopsies a été choisie de telle façon qu’il ne puisse pas y avoir de faux-positifs. Les conditions de conservation des biopsies a aussi donné lieu à des vérifications multiples afin de ne pas faire aussi apparaître d’artefacts. La sonde constituée de deux brins d’ADN de 20 bases chacun correspondait à l’oncogène du BLV, une protéine appelée Tax. Cette sonde a été montrée comme ne pouvant s’hybrider avec aucun des rétrovirus oncogènes connus ni avec des virus assez communément présents dans le lait maternel comme les HPV 16 et 18 ou encore le virus d’Epstein-Barr. Bref, toutes les précautions expérimentales ont été prises et le résultat de l’étude parue dans PlosOne (voir le lien) a montré ceci :

Capture d’écran 2015-09-17 à 16.45.47

Ce que l’on peut tout de suite constater est que trois femmes non cancéreuses sur 10 sont porteuses du BLV. Comme les biopsies non cancéreuses provenaient de femmes ayant subi une chirurgie esthétique, auraient-elles ultérieurement développé un cancer du sein. L’étude n’apporte évidemment pas de réponse directe à cette question. On la trouve en constatant que 4 femmes sur dix présentant des lésions précancéreuses étaient porteuses du virus et encore plus alarmant cette proportion atteint 60 % pour les tumeurs cancéreuses.

Le mystère de la présence de ce virus reste entier car la pasteurisation est considérée comme détruisant le BLV. La longue histoire de la promiscuité entre l’homme et le bétail ne date pas d’aujourd’hui. Pendant plusieurs millénaires l’homme a vécu en contact direct avec ces bêtes à corne pour en obtenir le lait, la viande et le cuir. Ce virus aurait pu être transmis à l’homme dans le passé et comme beaucoup de rétrovirus s’intégrer au génome humain et se « réveiller » pour des raisons inconnues, exprimant alors l’oncogène Tax conduisant à l’apparition de tumeurs mammaires. Mais on parle ici au conditionnel. Il reste néanmoins que cette étude est en faveur d’une origine virale d’une majorité de cancers du sein.

Illustrations : Wikipedia et PlosOne

Source : http://journals.plos.org/plosone/article?id=10.1371/journal.pone.0134304#sec005

Changement climatique, épisode 8 : Qu’est devenue l’intégrité des scientifiques climatologues ?

Capture d’écran 2015-09-07 à 17.46.04

L’IPCC n’a pas cessé de modifier ses prévisions de réchauffement au cours des années passées. Par exemple en 2007 cet organisme inféodé aux idéaux malthusiens des écologistes politiques clamait qu’il faudrait stabiliser les émissions de carbone en 2015 pour rester dans la limite de 2 °C de réchauffement à la fin du siècle. Le cinquième rapport de ce même organisme faisait mention de 2030 pour ce même objectif étant en cela appuyé par l’UNEP (UN Environment Program). Pour atteindre cet objectif il était clairement conseillé aux décideurs de développer les carburants « verts » et il faut le lire pour le croire : «  il faudra convertir 500 millions d’hectares de terre arable pour produire des biocarburants », c’est une fois et demi la surface de l’Inde ! Ces « experts » de l’IPCC conseillaient également aux décideurs politiques (déjà en 2007) d’accélérer la recherche dans les technique de capture et de stockage du CO2. Or rien n’a encore pu être réalisé dans ce domaine qui puisse être développé au stade industriel et la faisabilité même de ces technologies reste encore à démontrer en 2015. Quand il a été demandé à ces « experts » de bien vouloir préciser leurs calculs et leurs modélisations reliant les émissions de CO2 à l’augmentation de la température, encore une fois leur attitude a semé le doute dans les esprits car aucune réponse crédible n’a pu être apportée. L’IPCC est donc un organe hautement politisé qui tente d’influencer les scientifiques et les ingénieurs travaillant dans ce domaine. Et ces acteurs essentiellement mandatés par les Nations-Unies pour infléchir les décisions politiques des gouvernements ne s’appuient sur aucune évidence scientifique. Les politiciens doivent être informés des évidences scientifiques et non de faits biaisés pour la « cause » de la perturbation climatique globale d’origine anthropique.

Cette brève entrée en matière résume un commentaire paru dans Nature sous la plume d’Oliver Geden, directeur de la division recherche de l’Union Européenne à Berlin au sein de l’Institut Allemand des Affaires de Sécurité Internationale (voir le lien).

Parmi les acteurs influents oeuvrant pour la « cause » climatique il y a aussi la NASA et une nébuleuse d’agences gouvernementales américaines dont par exemple la NOAA. Mais la NASA dans le genre désinformation a fait très fort en se contredisant et de ce fait en ternissant son image d’intégrité scientifique. L’intégrité des sciences de base comme la physique, la chimie et la biologie repose sur des règles de reproductibilité de tous les travaux publiés de façon suffisamment claire et détaillée pour qu’ils puissent être justement reproduits par n’importe qui, n’importe où et à n’importe quel moment. La reproductibilité universelle conjuguée à l’aspect général de précision et de sensibilité des mesures expérimentales constitue le fondement même de l’acceptation par la société de l’intégrité de ces sciences de base, tant que les observations et expérimentations scientifiques concernent des corps physiques, des substances chimiques ou des organismes vivants. Dans les sciences dites appliquées et en particulier dans le domaine du climat et de la météorologie ces principes fondamentaux ont été parfois l’objet de contestations et de conflits. Il en est résulté une érosion de ces principes de reproductibilité, de précision et de sincérité en regard des intérêts sociologiques car l’économie et la prévention des risques ont surpassé en importance ces principes. Il est donc opportun de se positionner de manière critique quand on analyse l’intégrité de ces sciences appliquées.

La problématique du CO2 pose une question : comment le mélange chimique de molécules de gaz atmosphériques qui sont les uns insensibles aux rayonnement infra-rouges et les autres sensibles à ces derniers impacte-t-il les flux d’énergie de la surface de la Terre vers les hautes couches de l’atmosphère puis vers l’Espace. Si cette question ne doit pas trouver de réponse satisfaisante avec la physique et la chimie fondamentales mais avec la météo et le climat on peut alors émettre des doutes quant à l’intégrité scientifique de ces dernières sciences appliquées. La critique peut être motivée pour des raisons éthiques ou politiques mais in fine elle doit s’appuyer sur les sciences de base elles-mêmes.

Cette problématique du CO2 concerne la composition chimique de l’atmosphère et le flux d’énergie depuis le sol jusqu’aux hautes couches de l’atmosphère. Ces deux points concernent d’une part la chimie en ce qui concerne la composition de l’atmosphère et la physique en ce qui concerne l’énergie. Ces deux disciplines constituent la chimie physique fondamentale. Cette science doit donc être susceptible de clarifier la problématique du CO2. Si l’on se place du point de vue d’un physico-chimiste, la science climatique s’est déjà rendue vulnérable en avançant l’approximation mathématique de la Terre stipulant que celle-ci peut être décrite comme un « corps noir » à la température de – 18 °C. Or l’expression mathématique décrivant un corps noir est une fonction continue sur tout le spectre électromagnétique et cette approximation doit être valable aussi bien pour les longueurs d’onde du visible que pour celles des infra-rouges. N’importe qui peut se rendre compte que le ciel est bleu, la Terre est verte quand elle n’est pas désertique et les océans, qui couvrent plus des deux tiers de la surface de la Terre sont loin d’être à – 18 °C et seraient plutôt noirs s’il ne reflétaient pas durant la journée la couleur du ciel ! Enfin les physico-chimistes savent très bien que la molécule d’eau qui émet des radiations dans la bande des infra-rouges n’est pas un émetteur continu sur toute la plage des longueurs d’onde comme le décrivent les équations du corps noir de Max Planck. Cette température de – 18 °C se trouve dans tous les livres mais elle est basée uniquement sur ces deux hypothèses de la science climatique : en regard du Soleil et de l’Espace, et thermiquement, la Terre est un corps noir à – 18 °C . Sans aller plus loin dans les détails (je sens que certains de mes lecteurs sont déjà découragés) il suffit d’examiner comment la question du CO2 a été abordée par une organisation scientifique a priori extrêmement méritoire, en appliquant les connaissances accumulées par la science spatiale. La NASA, puisque c’est d’elle dont il s’agit, a rassemblé tous les flux d’énergie en provenance du Soleil à travers l’atmosphère et les flux d’énergie en provenance de la Terre vers l’Espace. Jusqu’en 2009 ce que la NASA appela le budget énergétique de la Terre ressemblait à ça :

Capture d’écran 2015-09-10 à 08.12.38

Il s’agit d’une approximation puisque les grandeurs figurant dans cette illustration ( W/m2 – en rouge – ou pourcentages) sont moyennées. Il y aurait beaucoup à redire sur la méthode utilisée pour obtenir ces valeurs moyennes car la Terre est ronde et elle tourne sur elle-même mais il serait long et compliqué d’entrer dans des considérations mathématiques laborieuses pour démontrer point par point que l’approximation utilisée par la NASA est fausse. Par rapport au Soleil et à l’Espace la Terre se comporte effectivement comme un corps noir à la température de – 18 °C à condition toutefois d’inclure dans cette approximation une autre approximation qui est le facteur d’erreur de réflexivité de 30 % ! Ce n’est pourtant pas le cas si on considère la surface de la Terre et l’environnement thermique dans l’infra-rouge et pour une raison très simple : il n’existe pas de stations d’observation fixes dans l’atmosphère permettant de mesurer les flux thermiques. Les satellites (de la NASA) mesurent la totalité du flux solaire entrant vers la Terre diminué de 30 %. Les satellites ne peuvent pas déterminer d’où ces radiations infra-rouges proviennent en direction de l’atmosphère, c’est-à-dire qu’il existe une incertitude impossible à élucider avec des satellites : on ne sait pas mesurer quelle est la part de rayonnements infra-rouges provenant de la surface de la Terre ou d’un quelconque niveau de l’atmosphère. C’est l’incertitude dont j’ai parlé lors d’un précédent billet de ce blog. Pour faire bref, les photons infra-rouges émis par une molécule d’eau de la vapeur composant l’atmosphère ne savent pas s’ils doivent retourner vers la surface de la Terre ou rayonner vers l’Espace. La quantification de la radiation thermique infra-rouge – 6 % provenant de la surface terrestre et 64 % provenant de l’atmosphère – peut dès lors paraître plausible.

Il reste cependant un problème non résolu par les observations satellitaires : pour inclure le rôle du CO2 dans le processus de dissipation vers l’espace de l’énergie solaire parvenue vers la Terre il faut donc admettre que seule l’atmosphère joue ce rôle de transfert de l’énergie thermique. Le rôle dans ce processus de la surface de la Terre est alors négligé et la Terre se comporte effectivement comme un corps noir à la température de – 18 °C à la seule condition, encore une fois, que seule l’atmosphère joue un rôle dans ce processus. Cette hypothèse est naturellement fausse compte tenu des observations au sol.

C’est alors qu’apparut une modification du schéma résumant les observations de la NASA en 2009 faisant intervenir le fameux effet de serre car la supercherie devait bien être expliquée d’une manière ou d’une autre et de surcroit très officiellement par un organisme connu par ailleurs pour ses prouesses spatiales passées.

Pour une bonne compréhension de ces deux schémas et afin de pouvoir les comparer, valeurs des flux d’énergie (dans le premier schéma) et pourcentages (dans le deuxième schéma) ont été surajoutés en rouge aux schémas de la NASA. Le premier schéma est globalement cohérent mais dans ce schéma il est crucial que les molécules d’eau et de CO2, les seuls constituants de l’atmosphère actifs dans le processus d’élimination vers l’Espace de l’énergie thermique sous forme de rayonnement infra-rouge, jouent le rôle de « corps noirs » qui refroidissent la planète. Cette première illustration de la NASA est donc proche de la réalité.

Quand la NASA a publié sa deuxième interprétation des flux thermiques décrivant le « budget thermique » de la Terre en 2009 avec cette fois l’ « effet de serre » :

Capture d’écran 2015-09-10 à 08.13.18

on n’a pu que se poser quelques questions presque existentielles sur l’intégrité scientifique de cet organisme. On est à première vue attiré par les deux énormes flux d’énergie qui ne figuraient pas dans la première version. On est aussi étonné que la NASA ait tenté délibérément de brouiller les esprits en intervertissant pourcentages et valeurs des flux en W/m2, une sorte de tour de passe-passe injustifié mais grossier. Les chiffres en surimpression en rouge permettent de s’y retrouver : des watts/m2 dans le premier schéma et des pourcentages dans le deuxième. On a l’impression qu’il y a là comme une tentative d’arnaque scientifique. Tout semble à peu près similaire à une exception près et de taille. Les 15 % d’énergie absorbés par l’atmosphère dans la figure 1 (flèche orange horizontale) ont été remplacés par les énormes vecteurs rouges justifiant l’ « effet de serre ». La différence est loin d’être négligeable car il est très important pour justifier cet « effet de serre » putatif de considérer que seule l’atmosphère intervient dans la dissipation de l’énergie reçue du Soleil vers l’Espace et que la surface de la Terre ne joue qu’un rôle mineur comme l’indiquent ces deux gros flux d’énergie figurés par les flèches rouges.

Les modifications qui n’apparaissent que si on analyse ces schémas scrupuleusement sont les suivantes : les radiations thermiques (infra-rouges) de l’atmosphère et des nuages passent de 64 % dans le premier schéma à 58,8 % dans le second en se référant dans le bilan thermique à 50 % pour l’atmosphère et 8,8 % pour les nuages. Et en quelque sorte pour retrouver un semblant d’équilibre – le trucage est éminemment subtil car il n’apparait pas à première vue – les radiations infra-rouges en provenance de la surface de la Terre passent de 6 à 11,8 % : bel exemple de probité scientifique mais passons … Si on scrute plus en détail ces deux schémas, la ligne de base pour la question du CO2 reste inchangée : la couche fine de l’atmosphère terrestre reste capable sans aucun doute de transporter par rayonnement infra-rouge toute l’énergie reçue du Soleil. J’ajouterai à quelques points de pourcentage près car la Terre emmagasine tout de même de l’énergie solaire par capture de cette dernière au cours des mécanismes photosynthétiques des végétaux et du phytoplancton. Tant dans le schéma 1 que dans le schéma 2 CO2 et eau restent les « corps noirs » prépondérants contribuant à dissiper l’énergie solaire incidente vers l’Espace beaucoup plus efficacement que les autres gaz constituants de l’atmosphère. Il est nécessaire d’insister sur l’invraisemblable importance de ces flux d’effet de serre (back radiation) et de réémission depuis la surface de la Terre, 340 et 298 W/m2, des données naturellement non vérifiées et non vérifiables, à la vitesse de la lumière : 117,1 % dans un sens et 100 % dans l’autre sens : c’est un peu n’importe quoi !

Il est évident que ces affirmations mensongères de la NASA doivent être revisitées dans une approche pragmatique réalisée par des physico-chimistes sans aucun a priori politique ou idéologique et il est nécessaire de disposer de mesures précises sur toute la hauteur de la colonne atmosphérique stabilisée par le gradient adiabatique gravitationnel. Le fait que la Terre se comporte comme un corps noir à la température de – 18 °C n’est valide que pour les composants de l’atmosphère qui sont activés par le rayonnement infra-rouge et non pas par le rayonnement provenant de la surface de la Terre.

Oliver Geden, dans son commentaire adressé au Journal Nature a rendu publique la question de l’intégrité de la science climatique actuelle en citant les interférences nuisibles des « conseillers en climat » et le mélange des genres regrettable avec leurs orientations politiques et financières. Ce commentaire est donc opportun pour dénoncer la tournure qu’a pris la science climatique dans les moyens abordés pour justifier la validité de la question de l’effet de serre du CO2.

Le monde politique, finalement, est maintenant confronté à de réels problèmes comme la disponibilité des terres arables (j’en dirais un mot dans un prochain billet) pour nourrir la population, la disponibilité et l’utilisation des moyens financiers considérables détournés pour satisfaire la fausse science climatique au détriment du développement et de la santé de milliards de personnes mais pour le plus grand profit d’une poignée d’investisseurs internationaux anonymes ayant élu domicile dans des paradis fiscaux. Ces mêmes politiciens et les climatologues de l’IPCC qui sont payés pour les conseiller et les orienter dans leurs décisions doivent aussi prendre conscience du « hiatus » du non-réchauffement de ces quelques 19 dernières années malgré l’augmentation continue de la teneur en CO2 de l’atmosphère, observation qui à elle seule ruine toutes ces hypothèses fantaisistes d’effet de serre du CO2.

Illustrations : NASA et Nature. Sources : Dr Gerhard Stehlik, Hanau, Dr Vollrath Hoop, Dreieich, Allemagne, NASA et http://www.nature.com/news/policy-climate-advisers-must-maintain-integrity-1.17468

L’évolution humaine, un long parcours parfois semé d’embuches

Capture d’écran 2015-09-12 à 13.28.56

Le génome humain, comme d’ailleurs celui des autres êtres vivants possédant un noyau, on dit les eucaryotes, se caractérise par deux processus essentiels entrainant une variabilité génétique qui fait que nous avons évolué et sommes devenus différents du lointain ancêtre que nous partageons avec les grands singes et aussi que nous sommes tous différents les uns des autres : les SNPs ou polymorphismes apparaissant à la suite de la modification d’une seule base de l’ADN (Single Nucleotide Polymorphism) et les CNVs (Copy Number Variant) qui concernent le nombre de copies d’un gène. Un gène peut en effet être dupliqué ou éventuellement disparaître. Il s’agit alors d’une délétion qui peut être létale et ne sera donc pas transmise à la descendance. Avec l’apparition des machines de séquençage de l’ADN ultrarapide et de moins en moins coûteux et l’utilisation d’ordinateurs puissants pour analyser ces séquences on s’est rendu compte que les CNVs jouaient un rôle certainement plus important que les SNPs dans la variabilité des populations humaines. Les récents travaux qui ont permis de séquencer des génomes entiers de nos ancêtres éloignés ont permis de mettre en évidence cette importance des CNVs pour trouver une explication dans cette variabilité des populations humaines qu’on appelle d’ailleurs à tort des races.

Je profite de cette occasion pour préciser qu’il n’existe pas de races humaines mais seulement une espèce humaine avec des caractères phénotypiques différents selon les régions du globe. Utiliser le mot race est donc purement politique voire idéologique quand on parle des Bantous, des Peuls ou des Iroquois. Nous sommes tous des Homo sapiens sapiens … et nous devrions tous être frères et nous respecter les uns les autres.

Une étude récente pilotée par le Docteur Evan Eichler du Howard Hugues Medical Center de l’Université de Washington à Seattle a réuni les données relatives à l’ADN de 236 individus représentant 125 populations humaines différentes et 5 anciens ADNs, Neandertal, Denisovan et trois autres spécimens anciens. L’étude minutieuse des fréquences de duplication de gènes indique que 7 % de la totalité du génome est concernée par des CNVs alors que la variabilité induite par les SNPs ne représente que 1,1 % du génome. Les délétions non létales représentent 2,2 % et les duplications 4,4 % des CNVs. Pour affiner l’étude, seules les CNVs bis-alléliques ont été prises en compte. Je sens venir chez mes lecteurs un découragement devant la technicité de cette prose mais il faut rappeler que nous possédons deux fois 23 chromosomes et donc il existe deux copies de tous les gènes présents qu’on appelle allèles.

Capture d’écran 2015-09-14 à 09.07.23

Cette étude a mis en évidence la présence de CNVs provenant des Denisovan chez les Papous de Bornéo et de l’archipel de Bougainville qui se situe au sud-est de Bornéo et au nord des îles Salomon. Cette introduction d’une CNV caractéristique est apparue il y a 170000 ans chez les Denisovan et elle n’a été retrouvée par la suite que chez les Papous sur le chromosome 16 et non chez les aborigènes d’Australie, par exemple. De plus elle constitue la plus importante présence de gènes archaïques dans une population humaine moderne et elle a été incorporée (on dit introgression) chez les Papous il y aurait environ 40000 ans. Il faut noter qu’aucune duplication d’origine néanderthalienne n’a pu être identifiée et qu’enfin les CNVs des populations africaines ne diffèrent pas des autres populations en termes de duplication de gènes.

Quant aux CNVs relatives à des délétions, ce sont toujours des évènements ponctuels provenant probablement d’un seul individu et transmis à la descendance quand celles-ci sont non létales. Les populations non africaines montrent une plus grande fréquence de SNVs de délétion car ces populations ont été soumises à des évènements successifs de pression de sélection génétique au cours du temps. Sur cette base il a pu être mis en évidence un isolement génétique des populations océaniennes Papous-Bougainville mais également des populations amérindiennes. La grande variabilité génétique des populations africaines réside dans le fait qu’elles sont toujours restées en contact durant l’évolution. Enfin les CNVs introduisant des duplications favorisent l’adaptabilité des personnes lorsque celles-ci sont soumises à une pression de sélection constante. Ce fut le cas des Denisovan qui divergèrent des autres non-africains il y a 440000 ans. Les Denisovan et les Néanderthaliens divergèrent il y a environ 700000 ans. Il est intéressant de rappeler ici que la deuxième vague « out of Africa » se situe justement aux alentours de 450000 ans avant notre ère et que la divergence entre humains et grands singes remonte avant 3 millions d’années.

Certaines CNVs ont été associées avec une adaptation positive ou au contraire négative à l’environnement. Par exemple une CNV sur le chromosome 16 concernant une haptoglobine et présente uniquement dans les populations africaines est associée à une résistance à la maladie du sommeil, alors qu’une CNV sur le chromosome 3 concernant une transférine provoque une sensibilité à une fièvre hémorragique provoquée par un arenavirus et est présente uniquement chez les Amérindiens.

L’évolution humaine est loin d’être terminée et Charles Darwin, encore vivant, serait émerveillé par cette étude. L’être humain a mis au point plusieurs stratégies pour s’adapter génétiquement à son environnement et les CNVs semblent compter parmi les plus puissantes.

Source : Science, 6 août 2015, 10.1126/science.aab3761 , illustrations tirées de l’article de Science aimablement communiqué par le Docteur Evan Eichler et AAAS News.