Mais où est passé le réchauffement du climat ? (suite)

Capture d’écran 2018-07-02 à 12.12.22.png

Les Empereurs chinois aimaient les statistiques et tous les évènements du quotidien étaient scrupuleusement consignés sur des registres y compris la date de floraison des pruniers Amygdalus davidiana qui ornaient les jardins et les parcs des alentours des palais et des résidences de l’Empereur disséminés dans la campagne chinoise profonde. Le changement de régime politique en Chine n’a pas effacé cette tradition et deux géographes de l’Université de Pékin ont rassemblé toutes les données relatives à la floraison de cet arbre emblématique que d’aucuns appellent aussi par erreur le cerisier. En établissant une corrélation entre cette date de première floraison et les températures relevées durant la période 1950-1980 il a été possible de remonter dans le temps jusqu’aux années 1740 et le résultat est surprenant.

Capture d’écran 2018-07-02 à 13.32.49.png

Il y a bien eu un refroidissement du climat après 1790 et jusqu’en 1830 alors que les températures étaient plus élevées qu’aujourd’hui entre 1740 et 1790 comme elles l’ont été entre 1930 et 1960 après une stabilisation de près d’un siècle (1830-1930).

Capture d’écran 2018-08-25 à 10.42.26.png

Ce qui ressort de cette étude est assez inattendu : les pruniers fleurissaient en moyenne 4,84 jours plus tôt entre 1740 et 1790 qu’entre 1950 et 1980 et seulement 0,14 jours plus tard durant la période 1790-1830 alors que cette période est communément appelée « petit âge glaciaire ». Certes il s’agit de la Chine continentale et le climat de cette contrée ne peut pas être comparé point par point à celui de l’Europe mais l’étude met en évidence la plus grande sensibilité de la végétation aux températures légèrement plus élevées. À l’aide de la corrélation établie sur la période 1950-1980 entre les dates de floraison et la température relevée il apparaît que durant la période 1741-1790 la température était régulièrement supérieure de 0,48 °C à celle observée entre 1950 et 1980.

La conclusion que l’on peut tirer de cette étude est claire, les optima climatiques ont existé dans un passé récent indépendamment de toute cause d’origine humaine et la présente période « chaude » n’est pas une exception dans l’évolution cyclique du climat.

Source et illustrations : International Journal of Climatology 10.1002/joc.5145

Alzheimer et homéopathie : même combat !

Capture d’écran 2018-09-21 à 09.43.00.png

Par décret paru au Journal Officiel de la République Française le Premier Juin 2018 les 4 spécialités et leurs génériques prescrites pour non pas soigner la maladie d’Alzheimer mais en retarder l’évolution ne sont plus remboursées par la sécurité sociale française. Il s’agit de l’Aricept ou Donepezil, de l’Exelon (rivastigmine), de la Galantamine (ou Reminyl) et de la Memantine (Ebixa). Il est opportun de rappeller ici que les « spécialités » de l’homéopathie sont toujours remboursées par la sécurité sociale. Mais là n’est pas le fond du problème, encore que … La réalité est tout autre : depuis plus de 15 ans aucun des 500 essais cliniques réalisés dans le domaine du traitement de la maladie d’Alzheimer n’a été couronné d’un quelconque succès. Outre les effets secondaires parfois difficiles à supporter de ces médicaments il s’agit en réalité de vaches à lait des laboratoires pharmaceutiques qui ont osé les mettre sur le marché en dépit des résultats décevants des essais cliniques qui n’ont jamais montré clairement de ralentissement de cette maladie ni de la démence progressive associée à la maladie de Parkinson. Il s’agit pour trois de ces spécialités d’inhibiteurs de l’acétyl-choline estérase, mode d’action qui n’a jamais été formellement montré comme pouvant infléchir l’évolution de ces démences. La quatrième spécialité, la Memantine, interfère avec le système glutamatergique neuronal sans toutefois affecter les jonctions synaptiques, fort heureusement !

C’était un peu difficile à comprendre mais dans la mesure où on ne connait pas encore les causes initiales – il y a probablement une conjonction de plusieurs éléments – de la dégénérescence neuronale, s’attaquer aux effets comme ce fut le choix des grands laboratoires pharmaceutiques n’est à l’évidence pas une solution. Alors que les traitements avec ces produits peuvent atteindre jusqu’à 500 euros par mois pour des résultats loin d’être satisfaisants il faut reconnaître que la décision du gouvernement français est justifiée au grand dam des médecins prescripteurs et des familles qui espèrent toujours une amélioration de l’état de santé de leurs proches. En effet si un malade va consulter son médecin il attend de lui (ou d’elle, qu’on ne m’accuse pas de sexisme) une prescription : c’est rassurant. Alors pourquoi ces mêmes médecins ne prescriraient-ils pas des « spécialités homéopathiques » – qui sont elles toujours remboursées – pour traiter les maladies neurodégénératives puisque tous ces produits coûteux n’ont qu’un effet placebo comme les médicaments homéopathiques ?

Quelques mémoires de ma carrière de chercheur en biologie (1) : l’erreur des embryons humains

Capture d’écran 2018-09-08 à 23.38.31.png

Il y a un peu moins de 40 ans – un bail – j’avais réintégré mon laboratoire d’origine à l’Université de Lyon à l’issue d’un longue pérégrination qui avait suivi ma soutenance de thèse d’Etat, un diplôme prestigieux qui n’existe plus aujourd’hui et personnellement je le déplore. Je précise ici que la thèse d’Etat succédait à la thèse dite de spécialité. Après cette soutenance de thèse j’avais si l’on peut dire tout d’abord sévi dans un des laboratoires les plus à la pointe à l’époque en France sur la recherche relative aux hormones stéroïdes sexuelles dans le sud de la France puis j’avais choisi d’aller poursuivre mes travaux aux Etats-Unis. Compte tenu de mes recherches antérieures publiées dans des journaux ayant une audience internationale (cf. le h-index) j’avais sélectionné deux universités américaines afin de parfaire mes connaissances en ce qui concernait la chimie des protéines qui avait été dans le fond l’objet de mes deux doctorats : Kansas City (Kansas) ou UCLA. J’avais en effet obtenu, compte tenu des publications que je comptais à mon actif, des assurances d’un complément de salaire lors de mon séjour auprès de l’une ou l’autre de ces éminentes figures de la chimie des protéines au sein de ces deux universités. Mon choix fut sans appel, ce fut UCLA. Pour ceux qui ne connaissent ce logo que sur des t-shirts il s’agit de l’University of California at Los Angeles, un admirable campus situé à Westwood Village entre Wilshire Boulevard et Sunset Boulevard. L’une des entrées nord du campus faisait face à celle de la propriété d’Alfred Hitchcock à Bel Air qui était toujours de ce monde à cette époque, je n’invente rien.

Dans le prestigieux laboratoire de chimie biologique situé dans l’immense complexe de l’hôpital universitaire de UCLA, peut-être encore aujourd’hui le plus grand bâtiment public des USA après le Pentagone (illustration), c’est dire, j’appris enfin à travailler dans un laboratoire de recherche car ce qui me restait de l’enseignement dispensé par mes professeurs de l’université française était devenu tout à coup pour moi totalement obsolète, plongé d’un coup dans le culte de l’efficacité de la recherche américaine. À tel point que je ne compris pas comment j’avais pu réaliser durant plus de huit années de labeur des travaux qui m’avaient permis d’être reconnu mondialement – au moins par mes publications dans de prestigieux journaux ou des communications à des congrès internationaux – alors que les méthodes de travail des laboratoires universitaires américains étaient si différentes et tellement mieux organisées.

Bref, il est un fait indéniable : j’appris à travailler à UCLA puis à San Diego, certainement pas à l’Université de Lyon, et de retour en France, après ces quelques années d’errements, je réintégrais mon laboratoire d’origine précisément à l’Université de Lyon.

J’eus soudain l’impression d’être complètement perdu dans un univers qui me paraissait figé, sans avenir, sans perspectives sinon de continuer à s’enferrer dans des problématiques qui ne verraient leurs éclaircissements que bien des années plus tard à la faveur de l’évolution fantastiques des techniques de recherche comme la biologie moléculaire ou l’analyse des molécules chimiques complexes, je veux parler ici des protéines, avancées qui ont permis des progrès gigantesques dont seuls des spécialistes – je n’en fais plus partie depuis bien longtemps – peuvent évaluer la portée future tant en biologie qu’en médecine ou encore en agriculture. Muni de mon expérience récente je recherchais désespérément des collaborations extérieures, mon laboratoire d’origine étant toujours prisonnier de ses thématiques originelles qui ne m’intéressaient absolument plus. À l’occasion d’un petit congrès pluridisciplinaire organisé par la région Rhône-Alpes j’eus la chance – ou peut-être la malchance – de rencontrer un vétérinaire qui se demandait comment pouvoir mettre en oeuvre la culture d’embryons bovins pour les réimplanter ensuite dans l’utérus de vaches porteuses pas nécessairement de la même race. C’était à l’époque l’explosion des fécondations in vitro pour les humains et ce vétérinaire me communiqua les coordonnées d’un médecin oeuvrant dans une clinique de la banlieue lyonnaise spécialisée dans ce domaine pour éventuellement imaginer un petit programme de recherche. Fort de mon expérience de purification de petits peptides acquise tant à UCLA qu’à San Diego je griffonnais une hypothèse de travail hasardeuse mais qui se révéla par la suite lourde de conséquences.

Le médecin en charge des fécondations in vitro s’arrangea pour mettre à ma disposition les boites de culture usagées des embryons humains et je pus alors entreprendre de chercher des différences entre le milieu de culture neuf disponible dans le commerce et les milieux, naturellement débarrassés des embryons après deux jours de culture, la base de mon hypothèse étant de tenter de trouver une molécule susceptible de favoriser le maintien d’un embryon en vie dans un milieu n’ayant rien à voir avec l’environnement d’une trompe de Fallope ou d’un utérus, molécule que l’embryon, dans cet environnement hostile, était obligé de produire pour sa survie. C’était la préoccupation majeure de ce vétérinaire car dans le cas des embryons bovins tout ne se passe pas comme dans une clinique, il faut transporter ces embryons en culture pour leur réimplantation et à l’époque cette technique essuyait échecs sur échecs. Collecter du sperme de taureau était déjà une routine pour les inséminations mais prélever des ovules de vache n’était pas encore totalement au point et la technique de congélation des embryons était encore inconnue.

Ce projet devait se dérouler sans que qui que ce soit apprenne dans quel domaine de recherche je me lançais, c’était tout simplement interdit et a fortiori je n’étais pas censé travailler directement sur les embryons humains. Très rapidement il apparut qu’un petit peptide s’accumulait dans le milieu de culture des embryons humains d’une manière totalement inattendue. Il me fallut quelques semaines à raison d’une ou deux heures chaque jour pour en purifier une quantité suffisante afin de procéder à une étude structurale qui fut menée à bien par spectrographie de masse grâce à la collaboration bienveillante et toujours sans aucun caractère officiel – j’avais un réseau de scientifiques sur place, amis pour la plupart – de collègues à qui j’avais exposé très vaguement l’objet de mes travaux et qui ne me posèrent aucune question embarrassante. Un autre ami, quand la structure de ce petit peptide fut élucidée, accepta d’en synthétiser une petite quantité toujours sous le manteau.

J’étais intrigué par cette petite molécule (voir note en fin de billet). À l’époque il n’existait aucun moyen, comme c’est le cas aujourd’hui, d’en rechercher la provenance en comparant la séquence des aminoacides avec toutes celles connues. Pourquoi s’accumulait-il et quelle était sa fonction ? L’embryon de deux jours ne se trouvait pas dans son environnement naturel et il synthétisait d’incroyables quantités de cette molécule, précisément, mais dans quel but ? Et c’est pour répondre à ces questions que ma curiosité de scientifique me conduisit à une dérive dont je ne perçus pas sur le moment l’importance et les conséquences futures.

Un vendredi soir, comme à l’accoutumée car j’avais encore quelques vérifications mineures pour finaliser ce petit projet, j’allais récolter quelques boites de culture d’embryons dans cette clinique où j’étais devenu un habitué. Une laborantine me donna une dizaine de ces boites, visiblement pressée de quitter le laboratoire. Je revins à l’université et par simple routine j’examinais les boites avec une loupe binoculaire par précaution dans le but de m’assurer qu’il n’y avait plus aucun embryon humain. Deux boites contenaient encore chacune deux embryons.

Je dois éclairer mes lecteurs sur le fait que pour qu’une fécondation in vitro soit réussie il faut implanter au moins deux embryons dans l’utérus et c’est la raison pour laquelle ce genre d’intervention conduit souvent à des grossesses gémellaires. C’était d’ailleurs un détail qui m’avait depuis le début de ces travaux plutôt intrigué. Pour la bonne compréhension du processus de fécondation in vitro il faut au préalable considérablement amplifier par voie hormonale la production d’ovules par les ovaires afin de faciliter la ponction ovarienne des ovules. Le geste chirurgical n’est en effet pas anodin et il faut qu’il soit réussi la première fois. D’autre part cette coexistence de deux embryons lors de la réimplantation dans l’utérus ne signifiait-elle pas qu’il manquait quelque chose de critique pour que l’embryon – au moins l’un des deux introduits – puisse s’implanter dans l’endomètre. Sans le savoir j’avais peut-être mis le doigt sur un paramètre qui était à cette époque totalement ignoré …

Je restais donc, seul dans le laboratoire, silencieux, anxieux mais en même temps très excité par le fait que j’avais entre les mains deux boites contenant des embryons humains en parfait état, et j’étais parfaitement conscient que je n’avais pas le droit de faire une quelconque expérimentation avec ces embryons. Les laborantines avaient de toute évidence bâclé leur travail, c’était un vendredi et elles étaient pressées de rentrer chez elles. C’est alors qu’il me vint l’idée de tester « mon peptide » sur ces embryons car j’ignorais quel pouvait être sa fonction et mon ami vétérinaire s’impatientait. Il s’agissait d’une démarche sans aucune arrière pensée mais motivée par ma seule curiosité scientifique. Je changeais le milieu de culture des deux boites fatidiques, préparais une solution stérile de « mon peptide » et en ajoutais une quantité infinitésimale, selon mes estimations il suffirait de quelques microgrammes dans chaque boite, inscrivis un code sur les boites et les mis dans l’incubateur.

Je passais, je m’en souviens comme si c’était hier, un week-end en famille très perturbé. Je voulais être déjà le lundi suivant. Et ce fameux lundi fut le début du basculement de ma carrière. La première chose que je fis fut d’examiner à la loupe les deux fameuses boites que j’avais mis dans un coin de l’incubateur. À ma grande surprise il n’y avait plus deux embryons dans chacune d’entre elles mais au moins 5 ou 6 qui semblaient se trouver en excellentes conditions quant aux embryons originels ils avaient dépassé le stade des 32 ou 64 cellules, une situation inédite à l’époque. Pris d’une terrible angoisse je mis de l’eau de Javel concentrée dans les boites avant que quiconque ne vienne me demander ce que je manigançais dans mon coin car, qui plus est, je n’étais pas vraiment censé faire des cultures de cellules dans le laboratoire. Puis je pris mon téléphone et j’appelais mon ami vétérinaire et je lui fit part de ma découverte.

Quelques mois plus tard, pour une raison dont j’ignore toujours l’origine, je fus convoqué par la direction du CNRS à Paris et on me pria de travailler désormais sur les épinards … Et c’est à cette occasion que je découvris ce que les écologistes exècrent : l’agrochimie, ce qui fera l’objet d’un prochain épisode de ces mémoires d’ancien biologiste.

Je voudrais ajouter en forme de post-scriptum qu’à l’époque, il y a donc près de 40 ans, j’ai pu grâce à la connivence de cet ami vétérinaire avoir accès à des documents ultra-secrêts issus tant des USA que du « bloc de l’Est » qui circulaient entre scientifiques sous le manteau que les armées étaient très activement intéressées par le croisement entre l’homme et le chimpanzé et vice-versa afin de créer des sortes de sous-hommes que les généraux pourraient sans état d’âme envoyer au casse-pipe. C’est vrai ! je n’invente rien. Il se trouve qu’il y avait un début de grossesse mais le système immunitaire n’était pas adapté – à l’époque où on ne connaissait pas encore les drogues immunodépressives – pour supporter l’embryon hybride. C’est terrifiant mais je suis persuadé qu’aujourd’hui les armées du monde entreprennent des recherches vraiment glauques comme par exemple au sujet du virus Ebola qui me paraissent hautement suspectes, du moins de mon point de vue d’ancien biologiste.

Note. J’ai complètement occulté de ma mémoire la structure, c’est-à-dire l’enchainement des acides aminés de ce peptide, et c’est bien mieux ainsi. Aujourd’hui encore je tente de me persuader que j’ai eu une hallucination et que ce que je croyais être des clones d’embryons humains n’étaient que des contaminations par des levures … Aujourd’hui encore je ne pense pas que ces travaux puissent être reproduits car les milieux de culture ont changé et les techniques de fécondation in vitro également pour atteindre une bien meilleure efficacité qu’à cette époque.

Qu’est-ce qui menace la science ?

Capture d’écran 2018-09-19 à 16.36.12.png

Traduction d’un article de Jeremy J. Baumberg, nano-physicien à l’Université de Cambridge paru sur le site Project Syndicate le 11 septembre 2018

La globalisation et la digitalisation du savoir, ainsi que le nombre croissant de scientifiques, tout semble à première vue être des éléments positifs pour les progrès de la science. Cependant ces tendances sont les deux faces d’un Janus (illustration) car elles encouragent aussi une recherche scientifique hyper-compétitive, victime de tendances et des modes du moment.

La connaissance scientifique et l’innovation technologique, comme Yuval Noah Harari l’a bien écrit dans son livre « Sapiens : une brève histoire de l’espèce humaine« , sont les deux principaux piliers du progrès économique. Pourtant il y a très peu de débats au sujet de la science d’aujourd’hui, malgré des défis significatifs provoqués par la globalisation, la digitalisation de la connaissance et le nombre croissant de scientifiques. À première vue ces tendances semblent positives. La globalisation connecte tous les scientifiques du monde entre eux, ce qui évite de dupliquer inutilement des travaux mais aussi de développer des standards universels de bonne pratique. La création de bases de données digitales permet de puiser des connaissances scientifiques et de favoriser l’apparition de nouvelles idées pour de nouveaux travaux de recherche. Enfin, le nombre croissant de scientifiques signifie que plus de recherche scientifique est envisagée, accélérant le processus de développement scientifique.

Cependant ces tendances sont les deux faces d’un Janus et pour comprendre pourquoi il faut reconnaître d’abord que la science est une sorte d’écosystème. Comme dans n’importe quel écosystème il existe une compétition acharnée entre les acteurs. Les Universités sont en compétition entre elles pour leur classement international. Les journaux scientifiques sont en concurrence pour publier les travaux scientifiques les plus remarquables. Les organisateurs des congrès scientifiques sont à l’affut des meilleurs conférenciers. Les journalistes cherchent les meilleurs scoops. Les pourvoyeurs de crédits de recherche sont en compétition pour trouver et apporter leur soutien aux travaux de recherche qui atteindront les avancées les plus significatives en termes d’impact social, de sécurité ou de profitabilité commerciale.

Comme dans les milieux naturels cette compétition complexe fait apparaître deux écosystèmes : celui des biens et celui des services. Nos écosystèmes naturels produisent des biens sous forme de matériaux à l’état brut et des services tels que le maintien d’un taux satisfaisant d’oxygène dans l’atmosphère, de pollinisation des plantes, de maintien de la propreté de l’eau et de l’air, et même de nous procurer la beauté et l’inspiration. Les « biens » de nos écosystèmes scientifiques sont les connaissances indépendantes, sophistiquées et revues par des pairs, qui stimulent vers l’avenir nos sociétés et nos économies. Les « services » de nos écosystèmes scientifiques sont constitués par une meilleure compréhension de notre monde et la structure qui soutient le mieux les progrès nous permettant d’innover et de résoudre toutes sortes de problèmes.

L’écosystème scientifique est bénéfique dans des domaines plus difficiles à évaluer. Il nous imprègne de la beauté des mathématiques, des valeurs inhérentes de l’éducation, de la croyance en la valeur intrinsèque des communautés scientifiques transnationales et de l’intérêt des discussions scolastiques (je n’ai pas trouvé de meilleure traduction à « scholarly discussions »). Et pourtant les organismes privés ou publics finançant la recherche ont sous-estimé ces « services » essentiels des écosystèmes scientifiques. De ce fait les trois points exposés plus haut, globalisation, digitalisation des connaissances et nombre croissants de scientifiques, amplifient le problème. Si la globalisation stimule la compétition elle renforce aussi certaines prises de position comme celles de savoir dans quels domaines de la recherche scientifique il faut prioritairement investir. Lors de mes réunions avec des officiels gouvernementaux dans le monde entier j’ai immédiatement décelé cette tendance. Les gouvernements privilégient les domaines de recherche bénéfiques pour le futur de leur pays et identifient alors ceux qu’il faut uniquement soutenir. En général ces domaines sont tous les mêmes.

Quand les médias ont alors identifié ces sujets de recherche « tendance » ceux-ci attirent la vaste majorité des aides financières. Le soutien financier à des recherches parallèles réduit alors l’efficacité de chaque investissement et l’attitude moutonnière des pourvoyeurs de fonds peut tout aussi bien nuire à l’émergence des découvertes les plus significatives qui le plus souvent résultent d’une combinaison de plusieurs disciplines apparemment sans lien entre elles.

La digitalisation des connaissances a amplifié cet effet. La crédibilité d’un résultat scientifique réside dans le nombre de fois où il est cité par d’autres scientifiques dans leurs travaux. Toutes les publications scientifiques sont enregistrées digitalement et le nombre de citations peut être obtenu instantanément, ce qui permet de classer les chercheurs scientifiques très facilement. Le « h-index » ou indice de Hirsch est une approche permettant d’évaluer individuellement la productivité et l’impact d’un chercheur, d’un laboratoire ou d’une université. Il tient compte du nombre de fois où une publication est citée dans d’autres travaux et il est devenu une sorte de valeur monnayable. Si le « h-index » d’un chercheur était son bitcoin convertible en salaires et crédits de recherche alors le nombre de citations de ses travaux constituerait la blockchain dont il dépend finalement. Mais encore une fois les mêmes chercheurs effectuant les mêmes types de recherches sont récompensés de manière inéquitable, laissant peu de place à ceux dont « l’estime » par le h-index est moins favorable.

Cet état de choses est amplifié par le nombre croissant de diplômés scientifiques. Allez dans une réunion de chimistes et demandez-leur combien ils ont de collègues dans le monde. Ils n’en savent fichtre rien. Demandez-leur combien de ces autres chimistes ont besoin de leurs résultats pour leurs propres travaux, ils regarderont leurs chaussures. Ce que l’on sait est que le nombre de scientifiques dans le monde croit beaucoup plus vite que la population dans son ensemble. Plus de scientifiques ne signifie par pour autant plus de découvertes mais la conséquence est une plus forte compétition dans cet écosystème et une inflation du h-index, exactement comme l’impression de monnaie créé de l’inflation.

En conséquence depuis plusieurs décennies les scientifiques se sont senti de plus en plus en compétition pour mettre en avant leurs travaux et dans cet écosystème scientifique complexe et interconnecté trouver une solution n’est pas simple. Il y a cependant quelques pistes dignes d’être explorées. Le plus fondamental est d’encourager la diversité des institutions, des mécanismes de financement et les approches scientifiques de recherche et ceci est fondamental pour éviter toute conformité fatale à la créativité. Les écosystèmes nécessitent toujours une diversité pour une meilleure résilience, c’est un fait acquis. Un tel écueil de conformisme peut venir des géant de la technologie méga-riches mais aussi du financement « crowd-sourcing » et des riches mécènes de la technologie.

Pour encourager cette diversité il faudrait mettre en place des arbitres scientifiques pour explorer les domaines de recherche plus systématiquement, pour réaliser un travail de prospective en profondeur afin d’identifier, au delà des tendances actuelles, les liens prometteurs interdisciplinaires ainsi que les résultats déjà acquis mais conflictuels qui méritent des investigations supplémentaires. Au final, outre la métrique unidimensionnelle du h-index, il faudrait mettre en place un système d’évaluation plus compréhensif et multi-facettes des travaux scientifiques. Et ce n’est qu’ainsi que les nouveaux arrivants dans le monde scientifique chaque année pourront contribuer efficacement et de manière significative à l’avancement de la science et par conséquent aux progrès de l’humanité.

Bref commentaire de mon cru à cet article. La recherche scientifique est devenue malheureusement un instrument des politiciens et de certaines organisations non gouvernementales pour faire en sorte que la recherche universitaire soit orientée et satisfasse à des objectifs prédéterminés. Il va de soi que dans un tel environnement il ne peut plus exister de recherche scientifique objective. Avant qu’il ne soit trop tard il faut – et il est urgent – que les scientifiques du monde entier prennent conscience qu’ils sont manipulés par des groupes de pression transnationaux et refusent les diktats qui leur sont imposés car il en va de la survie du monde scientifique dans son ensemble. Je ne citerai que deux exemples. La supposée dangerosité des organismes, les plantes de grandes cultures, génétiquement modifiées est le premier exemple. Je connais très bien ce domaine particulier de la recherche scientifique et je peux affirmer sans que qui que ce soit puisse me contredire à l’aide d’arguments prouvés scientifiquement (car il n’en existe aucun) que les plantes génétiquement modifiées sont totalement anodines pour la santé humaine ou animale. Je citerai également le glyphosate qui ne peut pas, compte tenu de la nature de cette molécule, être cancérigène, c’est une pure invention d’activistes qui se déclarent des scientifiques mais sont au contraire des imposteurs animés de préoccupations essentiellement idéologiques.

Les errements de la très technocratique Commission Européenne : l’éclairage domestique

Capture d’écran 2018-09-17 à 10.37.05.png

Après avoir interdit les lampes à filaments incandescents, l’invention de Thomas Edison, l’Union Européenne a récidivé dans le genre en interdisant depuis le premier septembre 2018 les lampes à halogène qui avaient pourtant été promues lors de leur apparition pour économiser de l’énergie. Force est de constater que la Commission Européenne, nid de lobbystes reconnu, veut s’occuper de la vie quotidienne de tous les Européens dans ses moindres détails. Les arguments sont clairs : il faut convertir tous les éclairages en LEDs (Light Emissing Diodes) pour une raison très simple. Les LEDs nécessitent un cinquième de l’énergie consommée par une lampe à halogènes pour une intensité lumineuse équivalente. Or la consommation électrique des ménages et des bâtiments représente dans le monde une empreinte carbone supérieure à celle combinée de tous les bateaux et de tous les avions circulant autour de la planète à un instant t et l’éclairage contribue pour 15 % de cette consommation électrique.

Les LEDs sont des équipements basse-tension et la qualité de l’éclairage dépend de la nature du circuit électronique situé à l’intérieur de l’ampoule ou du tube puisqu’il existe aujourd’hui des tubes-LED qui ressemblent à s’y méprendre au bon vieux « tube néon » à décharge électrique haute tension. Mais il y a un problème avec les LEDs. Comme les lampes fluorescentes à décharge la lumière émise par ces LEDs vacille plus ou moins selon la qualité du circuit électronique fournissant le courant basse-tension d’alimentation. La fréquence de ce scintillement est de 100 Hz et il est inhérent à la qualité du circuit électronique de modulation de la fréquence du courant d’alimentation. En d’autres termes la LEDs émet 100 brefs éclats de lumière par seconde et il est donc invisible car trop rapide mais qu’en est-il au niveau du cerveau qui traite les informations en provenance des yeux ?

De nombreuses personnes étaient indisposées par l’éclairage fluorescent et ressentaient des maux de tête et c’est à la suite de cette constatation que la qualité des ballasts magnétiques des tubes néon a été améliorée pour réduire ce scintillement. Ces ballasts ont été progressivement remplacés après leur interdiction en 1990 par des ballasts électroniques qui réduisent considérablement ce scintillement mais pas totalement. La situation pour les LEDs est à peu près identique mais il existe déjà des éclairages à diodes dont le scintillement est très réduit.

Capture d’écran 2018-09-17 à 10.35.42.png

Comment savoir si les LEDs dont vous avez équipé les lampes de votre maison sont de bonne qualité ? C’et très simple ! Demandez à votre enfant de jouer avec son fidjet – presque tous les enfants en ont au moins un – éclairé par une LED. Si vous voyez que le fidjet tourne dans le sens contraire de celui qui lui a été imprimé, un peu comme les roues d’une diligence dans les films de western qui semblent tourner en sens inverse du déplacement de la diligence, alors la lampe LED scintille trop. Bien que ce scintillement soit imperceptible il peut provoquer des maux de tête et parfois d’autres inconvénients comme par exemple des insomnies. Alors plutôt que d’interdire les lampes à basse consommation d’énergie à halogènes et contenant parfois des traces de mercure, la Commission Européenne ferait oeuvre de protection de la santé des personnes en exigeant un étiquettage spécifiant le niveau de scintillement des lampes à LEDs, l’éclairage des lampes à halogènes étant justement de bien meilleure qualité – comme les lampes classiques à filament incandescent – que celui des LEDs.

Sources et illustrations : The Conversation et The Guardian

Le Prozac favorise l’apparition de multi-résistances des bactéries aux antibiotiques !

Capture d’écran 2018-09-15 à 10.50.05.png

Les Français sont les plus importants consommateurs d’anti-dépresseurs dans le monde, certes, parce que contrairement à d’autres pays l’usage de drogues dites « relaxantes » comme la marijuana maintenant de facto légale au Portugal ou aux Pays-Bas et de plus en plus d’Etats des USA ne le sont pas en France alors les Français se gavent de Fluoxetine, la matière active du Prozac. Mais comme l’ont découvert des biologistes de l’Université du Queensland à Brisbane (illustration) cette molécule, outre ses effets anti-dépresseurs, stimule les bactéries pathogènes pour s’armer contre l’attaque par des antibiotiques. C’est assez effrayant d’apprendre cela : les Français favorisent les multi-résistances bactériennes aux antibiotiques !

Lorsqu’une personne s’administre du Prozac, plus de 10 % de la matière active est rejetée par les urines. Il en est de même pour les contraceptifs mais c’est un tout autre sujet. Ces scientifiques du Centre d’étude de l’eau de l’Université du Queensland à Brisbane située dans un magnifique campus au bord de la Brisbane River en plein centre-ville se sont penché sur la teneur en Fluoxetine justement dans l’eau de la rivière toute proche. Une étude précédente avait montré que le Triclosan induisait des résistances aux antibiotiques chez les bactéries retrouvées dans les rivières. Le Triclosan se trouve dans la maison dans le dentifrice ou encore le savon liquide pour se laver les mains et de grandes quantités de ce produit se retrouvent dans les rivières. Jamais aucune étude ne s’était penchée auparavant sur un possible effet similaire de la Fluoxetine et ce qu’ont trouvé ces scientifiques est particulièrement inquiétant.

En utilisant des colibacilles (Escherichia coli) il a été montré que la Fluoxetine induisait des mutations chez cette bactérie qui la rend insensible à de nombreux antibiotiques. Alors que la souche K12 de coli utilisée était sensible à la plupart des antibiotiques, chloramphenicol, amoxicillin, tetracycline, fluoroquinolones, aminoglycosides ou encore beta-lactames, pour n’en citer que quelques-uns, après quelques semaines de culture en présence de Fluoxetine, la bactérie était devenue pratiquement résistante à tous ces antibiotiques. Il fallait désormais des doses 10 millions de fois plus élevées pour les tuer. En étudiant l’ADN de ces bactéries mutées par la Fluoxetine il est apparu que de nombreux gènes avaient été modifiés, en particulier les gènes codant pour des transporteurs situés dans la membrane de la bactérie qui rejettent alors les antibiotiques mais aussi divers facteurs de transcription avaient aussi été profondément modifiés.

Ce résultat est terrifiant pour deux raisons. Chaque année plus de 700000 personnes meurent d’infection devenues impossibles à traiter en raison de la résistance aux antibiotiques car cette résistance se transmet horizontalement entre bactéries d’espèces différentes. Mais il y a pire encore le Prozac semble être un mutagène du moins chez le colibacille et pourquoi ne l’est-il pas aussi pour un vulgaire staphylocoque ? Voilà un effet collatéral inattendu du confort médicamenteux dont beaucoup de personnes abusent sans imaginer un seul instant quel peut en être l’impact sur leur propre santé.

Source : The University of Queensland News, illustration : les Docteurs Min Jin et Jianhua Guo, auteurs de l’étude.

La première plus grosse installation industrielle du monde se trouvait en France près d’Arles.

Capture d’écran 2018-09-09 à 18.20.17.png

Aux premier et second siècle de l’ère présente les Romains construisirent un moulin à grain d’une taille exceptionnelle dans le sud de la France à un peu plus de 10 kilomètres d’Arles (Arelate à l’époque), l’une des résidences favorites de l’Empereur Constantin au bord du Rhône. Arles doit son essor en s’alliant à Jules César un demi-siècle avant l’ère présente contre Marseille qui lui disputait la suprématie du commerce le long du couloir rhodanien. La ville fut équipée d’aqueducs et les débouchés de la riche campagne environnante furent exploités et transformés pendant les deux siècles qui suivirent. Ceci fut la raison pour laquelle les ingénieurs romains construisirent un moulin de taille industrielle à Barbegal alimenté par un aqueduc captant les eaux souterraines de la chaine des Alpilles alors que celui alimentant Arles en eau provenait du massif du Lubéron.

Capture d’écran 2018-09-09 à 15.56.38.png

Les moulins – il y en avait 16 – étaient alimentés par des buses (flume en anglais) en bois. L’eau provenant du moulin supérieur était recueillie dans un bassin et utilisée pour faire tourner la roue conçue en bois du moulin inférieur et ainsi de suite. Les pales des moulins étaient également en bois. Divers fragments retrouvés sur le site de Barbegal ont été minutieusement étudiés pour en quelque sorte retracer l’histoire de ce moulin exceptionnel. Il s’agit d’empreintes des structures de bois par des dépôts de calcite, l’eau souterraine des Alpilles captée dans les sources karstiques (k dans la figure ci-dessus) étant particulièrement chargée en carbonates. Ces fragments ont fait l’objet d’études stratigraphiques, cristallographiques et isotopiques ayant pour objet de retracer l’histoire de la buse d’arrivée de l’eau, des roues et donc du moulin lui-même.

Les études stratigraphiques et microscopiques ont mis en évidence l’alternance des saisons, la charge en calcaire de l’eau variant avec l’abondance des précipitations. Les précipitations ont formé des strates brunes dues à la présence de colloïdes provoqués par les eaux de ruissellement. La densité de ces dépôts de calcite indique en outre que les roues des moulins étaient probablement protégées des rayons solaires en comparant des dépôts d’autres moulins à Saepinum, Athènes ou encore Ephèse. Ces moulins n’étaient, en effet, pas protégés par un toit.

Capture d’écran 2018-09-09 à 16.13.25.png

Les études isotopiques ont concerné les isotopes 13 du carbone et 18 de l’oxygène. Les différences en teneur en ces isotopes permettent de retrouver la température de l’eau qui actionnait les moulins. Pour l’oxygène un δ18O élevé signifie que l’eau était plus froide, c’est-à-dire en hiver. Pour le δ13C c’est l’inverse car plus l’eau est chaude moins il y a d’isotope lourd du carbone en raison du dégazage plus intense de l’eau. Ces dernières études ont montré, combinées aux études cristallographiques et stratigraphiques, que les moulins étaient à l’arrêt durant quelques mois entre le milieu de l’été et le milieu de l’automne. Les dépôts de calcite recueillis et étudiés ont tous un âge d’environ 15 années ce qui indique que des opérations de maintenance étaient effectuées périodiquement chaque quinze années. L’épaisseur de ces dépôts de calcite représentaient en effet pour chaque roue des moulins un poids non négligeable d’environ 170 kg. Il fallait donc nettoyer ces roues périodiquement.

Les historiens ont cru pendant longtemps que l’économie romaine était basée sur l’esclavage. L’existence d’un tel moulin d’une taille industrielle unique au monde à cette époque explique au contraire que l’abandon progressif de l’exclavage libéra la créativité des ingénieurs romains. Puisqu’il y avait moins de main-d’oeuvre il fallait créer des machines performantes. Ce moulin pouvait en plein fonctionnement produire jusqu’à 25 tonnes de farine par jour afin d’alimenter en pain la population locale mais aussi les navires des ports d’Arles et de Fossae Marianae, aujourd’hui Fos-sur-Mer, à proximité d’Arles. Les navires embarquaient en effet un pain compact spécial qui pouvait être conservé plusieurs mois car il avait été cuit deux fois à cet effet. Parmi tous les débris de calcite conservés au musée archéologique d’Arles et rassemblés lors de fouilles du site de Barbegal en 1930, il a enfin pu être mis en évidence la date d’abandon du moulin, aux alentours du début du troisième siècle de l’ère présente probablement en raison des troubles qui affectaient l’Empire romain mais peut-être aussi avec l’apparition de moulins de taille plus modeste et de maintenance plus abordable pour des non-spécialistes. Il reste que le moulin de Barbegal reste le vestige de la plus grande construction industrielle de cette époque.

Source et illustrations : Science Advances