Paracetamol pendant la grossesse : pas vraiment de danger.

 

Quand les médecins font des mathématiques, c’est affligeant !

Une étude « très » sérieuse réalisée conjointement par les Universités de Bristol et d’Oslo portant sur 114761 enfants pour qui le dossier médical de leurs mères avait été dûment enregistré dans le cadre d’une étude reliant les médicaments pris lors de la grossesse et les pathologies dont pouvaient souffrir les enfants a conclu à un effet néfaste du paracétamol sur ces derniers. La relation de cause à effet entre le paracétamol au cours de la grossesse et l’apparition d’allergie, dont l’asthme, a été établie de manière « indubitable ». Il faut lire l’article en détail pour comprendre que l’affirmation de ces médecins est une vaste supercherie. Mes lecteurs curieux peuvent se risquer à la lecture de cet article paru dans l’International Journal of Epidemiology qui est un exemple de mauvaise foi et de fausse science (voir le lien).

En effet, rien n’indique clairement qu’il puisse exister une relation entre la prise de paracétamol par la mère au cours de la grossesse et quel que soit l’état d’avancement de cette grossesse avec l’apparition d’asthme chez l’enfant. Le suivi des enfants n’a été réalisé qu’en fonction du paracétamol et non sur la base d’autres critères. L’échantillonnage des enfants diagnostiqués comme souffrant d’asthme était ciblé en trois catégories : quelques mois après la naissance, à trois ans et à sept ans et seuls les enfants en très bas âge ont semble-t-il été affectés par cette prise de paracétamol au cours de la grossesse.

Capture d’écran 2016-02-15 à 18.56.27.png

Les conclusions de ces travaux purement statistiques font ressortir que la prise de paracétamol durant la grossesse a une « influence certaine » sur l’apparition précoce de l’asthme chez l’enfant selon les conclusions des auteurs de cette étude. Cette influence est-elle significative ? On peut raisonnablement en douter car il faut avoir un oeil exercé pour décrypter les données présentées dans cet article : quelques points de pourcentage de différence, une différence significative ?

Je n’ai jamais été un féru de statistiques mais il paraît clair que cette différence relève du bruit de fond statistique … Cette étude aurait pu tout aussi bien montrer que manger du chocolat pendant la grossesse était un facteur favorable à l’apparition de l’asthme chez l’enfant. On peut faire dire ce qu’on veut aux chiffres avec de telles études statistiques. Comme en ce qui concerne le climat, la médecine dérive dangereusement vers des modélisations mathématiques et des analyses statistiques ex abrupto qui n’ont plus aucun lien avec la réalité. Méfiance !

Capture d’écran 2016-02-14 à 23.02.38.png

Notes relatives aux illustrations. 1 : reproduit ici un fragment du tableau 2 de l’article qui décrit les cas d’asthme chez les enfants de 3 ans. La deuxième colonne indique le pourcentage d’enfants atteints.

2 : exemple d’une relation de cause à effet : l’incidence du nombre de meurtres avec des produits ou des objets chauds sur l’âge de Miss America. Sans commentaire …

Source : doi: 10.1093/ije/dyv366

Statistiques de l’emploi, de la croissance et des prix : toutes frauduleuses !

 

Vendredi fut encore une journée grise pour les bourses tant européennes qu’asiatique mais également pour la bourse de N-Y. Pourtant toutes les places financières attendaient, des filets de salive d’envie à la commissure des lèvres, la publication mensuelle de la situation de l’emploi américaine. Bingo ! Presque 300000 emplois créés en décembre. Les bourses ont réagi en s’enfonçant dans le rouge : SMI -2,28, CAC -1,59 et le Dow -1,02. C’est à n’y rien comprendre. Une des très rares bonnes nouvelles de la semaine n’a pas réjoui les investisseurs.

Mais que se passe-t-il ? L’explication est limpide : les investisseurs ne croient plus aux statistiques publiées par les gouvernements et pas seulement celles de la Chine – tout le monde sait que le gouvernement chinois fraude depuis des années – mais bel et bien celles des USA, surtout en ce qui concerne les chiffres de l’emploi. En France la manipulation de ces statistiques est devenue un exercice de style dans lequel excelle l’INSEE, organisme gouvernemental mandaté par le gouvernement pour que sa bonne gouvernance soit reconnue par le péquin moyen sans moufeter.

Pour ce qui concerne les USA la fraude a pris une ampleur cosmique. Entre décembre 2014 et décembre 2015 la population active américaine a diminué de 1185000 emplois. Au jour d’aujourd’hui il y a 94691000 (je l’écris en toutes lettres quatre-vingt-quatorze millions, il n’y a pas d’erreurs de zéros) d’Américains en âge de travailler qui n’ont pas d’emploi et la Maison-blanche prétend que tout va bien, c’est du grand foutage de gueule. L’ « embellie » de décembre concerne 165000 jobs de personnes âgées de 46 à 54 ans qui ont trouvé un travail à temps partiel de manœuvres, de plongeurs dans un restaurant ou de serveurs dans un bar parce qu’ils se sont soudain retrouvés au chômage et qu’ils n’ont aucune pension. Il y a eu en un an un accroissement de 527000 personnes ayant deux ou plusieurs jobs à temps partiel. Ce dernier mois de décembre, seulement 16000 personnes âgées de 25 à 54 ans ont retrouvé un emploi stable. Enfin dans cette embellie de décembre il faut inclure les 142000 retraités qui ont du retrouver en toute urgence un job pour faire face à leurs dépenses comme par exemple le remboursement des hypothèques sur leur maison ou celui de leurs emprunts de jeunesse (qu’ils n’ont toujours pas fini de rembourser) pour financer leurs études car leur caisse de retraite a diminué leur pension. Et la raison est très facile à comprendre : ces caisses de retraite perdent de l’argent en raison de la politique des taux zéro de la FED.

L’autre aspect de cette fraude est le fameux – et fumeux – ajustement saisonnier des données statistiques qui autorise les administrations à amalgamer dans une sorte de modèle totalement déconnecté du bon-sens des prévisions disparates afin de « lisser » comme disent les statisticiens les données brutes. Sur les 292000 nouveaux emplois de décembre 2015 décrétés par l’administration 281000 d’entre eux sont dus, comme par une espèce de magie arithmétique, à l’ajustement saisonnier ! Le même type de fraude sur les chiffres est également appliqué pour l’évolution du prix du panier de la ménagère. En d’autres termes les gouvernements, tous sans exception, nous mentent à longueur de jours et de semaines pour dissimuler leurs mauvaises décisions et l’état de plus en plus dégradé des économies dans leur ensemble. Et cette arrogante propagande est naturellement reprise par les médias asservis par le pouvoir.

Paul Craig Roberts peint la situation de l’emploi nord-américain dans une analyse réaliste en ces termes : « La prétendue augmentation du nombre d’emplois concerne toujours les services domestiques non commerciaux, c’est-à-dire des emplois qui ne contribuent pas à l’exportation de biens et qui n’entrent pas en compétition avec les biens importés. C’est exactement le profil d’emplois qu’on rencontre dans les pays du tiers-monde. C’est ce qui arrivera dans quelques décennies aux USA, une tiers-mondialisation de son économie ».

Inutile de chercher d’autres raisons au total manque d’intérêt des milieux financiers pour les statistiques gouvernementales : ils ont sanctionné ces statistiques frauduleuses.

Source : PCR

L’open-data, avantages et inconvénients (en Grande-Bretagne)

Fluvastatine

Inutile de préciser que ce billet ne concerne pas la France puisque l’open data des données médicales ne semble pas être à l’ordre du jour dans l’Hexagone, probablement en raison de l’opposition de l’ordre des médecins, fâcheuse réminiscence des sombres heures fachisto-communistes du régime de Vichy, bref, je ne veux pas lasser mes lecteurs sur ce sujet. Il s’agit de la Grande-Bretagne avec son institution NICE, acronyme d’un organisme étatique (il y en a aussi en GB) qu’on désignerait en France sous le nom d’Institut Nationale de l’Excellence des Soins de Santé. NICE a pour but de faire parvenir électroniquement des directives au corps médical pour la prévention ou le traitement de telle ou telle pathologie et ces directives sont mises à jour périodiquement, environ tous les 5 ans. Le dernier projet de directive concerne le cholestérol ou pour être plus précis la version intermédiaire du document qui est libre d’accès et peut à tout moment être modifié avant sa version définitive qui tiendra compte des remarques et commentaires du corps médical. Il s’agit des thérapies de modification des lipides pour la prévention des accidents cardiovasculaires. Vous avez bien lu comme moi et il n’est pas difficile de comprendre qu’il s’agit de l’usage raisonné des statines.

J’ai disserté à plusieurs reprises dans mon blog des statines et il est facile de retrouver tous les billets sur ce sujet en entrant statine dans la fenêtre « recherche ». Je ne reparlerai pas ici de ce que je pense de ces médicaments mais de la démarche de NICE qui est exemplaire de ce que l’on peut et ne pas faire avec l’open-data médical. Le gouvernement anglais par le truchement de NICE s’attaque aux dépenses de santé moins élevées qu’en France mais la chasse aux économies est mieux organisée outre-Manche et la prévention permet de réaliser des économies substantielles. Pour les maladies cardiovasculaires, troisième cause de mortalité en GB, il n’y a qu’à prescrire des statines et éventuellement donner des conseils pour améliorer un peu son style de vie, moins manger, moins fumer et picoler, faire un peu d’exercice et manger cinq fruits et cinq légumes par jour, la litanie habituelle.

Pour les statines, en terme d’économies c’est bingo selon NICE qui se base sur une définition obscure du facteur de risque d’apparition de maladies cardiovasculaires directement issu du taux officiellement admissible du « mauvais » cholestérol circulant dosé à jeun ou pas, ça n’a pas d’importance, mais si, c’est écrit en toutes lettres dans le rapport : Lipid Modification(update) : NICE guideline DRAFT – Feb 2014. Jusqu’à la lecture de ce rapport je croyais que les analyses des lipides sanguins étaient faites sur un prélèvement à jeun mais je me trompe peut-être. Aucune indication claire sur ce facteur de risque mais NICE a décidé d’abaisser ce facteur de 20 à 10 % tant pis si des statines seront prescrites à des personnes en parfaite santé (jusqu’à 80 mg par jour), le système étatique de santé anglais ne pourra que mieux s’en porter, pas vraiment les patients mais c’est un autre problème qui ne concerne pas le ministre de la santé. Les laboratoires pharmaceutiques n’ayant jamais rendu publiques leurs résultats l’open-data a tout de même fait ressortir finalement des effets secondaires plus ou moins gênants comme des douleurs musculaires et des myopathies handicapantes, des pertes de mémoire, l’apparition de diabète de type 2 ou encore des troubles de l’érection chez l’homme. Peu importe puisque le but de ces recommandations est de réaliser des économies et de grossir par la même occasion les profits des laboratoires pharmaceutiques. Sans vouloir critiquer cet organisme (NICE) on s’aperçoit tout de même qu’il préconise l’usage des statines suivantes : Pravastatine (Bristol-Myers-Squibb – 1,3 Milliard de dollars), Simvastatine (Merck, deuxième statine la plus vendue dans le monde, pas de données économiques), Atorvastatine (Pfizer 12,5 milliards engrangés depuis son AMM, première statine vendue dans le monde) ou encore Rosuvastatine (Astra-Zeneca, 2,6 milliards rien qu’en 2013), bravo NICE, c’est du bon travail !

Mais là où l’open-data a tout de même du bon c’est l’étude statistique qu’il a permis de réaliser pour évaluer les réels bénéfices des statines. D’abord on sait qu’en 2010 par exemple il y a eu 80000 morts par infarctus et 49000 par AVC en GB. Partant des données disponibles sur plusieurs années, l’open-data a eu au moins l’intérêt de montrer que la prescription de statines ne diminuait pas significativement le nombre de décès par accidents cardiovasculaires, curieux tout de même. En d’autres termes, en réalisant des études statistiques sur des grands nombres, on sait mieux ce qu’on fait et on le fait mieux, on a évalué qu’il fallait traiter au moins 345 personnes par an pour prévenir au moins 1 accident cardiaque et si on combine infarctus et AVC au moins 245 personnes doivent être traitées pour éviter l’un ou l’autre des accidents. Enfin l’open-data a mis le doigt sur un point vraiment gênant, sur les analyses sanguines des patients ayant décédé de ces maladies cardiovasculaires aucune corrélation n’a pu être établie avec le taux de cholestérol circulant peu avant la mort ou post-mortem, en d’autres termes aucun bénéfice clinique clair des statines n’a pu être formellement démontré !

La question est alors, et mes lecteurs se la poseront certainement, qui se moque de qui et les autorités de santé sont-elles vraiment indépendantes du lobby de l’industrie pharmaceutique ? Ca se passe en Grande-Bretagne mais qu’en est-il en France, bonne question !

Sources : Guardian et Harvard Medical School, illustration Fluvastatine (Wikipedia)

La science moderne dans tous les états !

JOURNALS-articleLarge

Il y a quelques années je suis allé rendre visite à un ancien élève de thèse de science à qui j’avais transmis une partie de mon savoir. Il était devenu directeur d’un laboratoire de virologie de réputation internationale. Il me présenta à ses collaborateurs réunis dans le laboratoire. A l’époque où ce brillant chercheur préparait sa thèse les paillasses étaient encombrées de toutes sortes de fioles et de tubes, de la vaisselle attendait dans un grand bac d’acide, on devait attendre notre tour pour faire des calculs avec l’unique calculateur du laboratoire et on devait dessiner à l’encre de Chine les illustrations des manuscrits que nous avions l’intention de soumettre à publication.

Dans cet endroit tout neuf, les paillasses étaient vides, rien, pas le moindre tube à essai. Un appareil de forme cubique était posé dans un coin avec comme tout prolongement un clavier et un écran. Quelques ordinateurs portables trainaient ça et là, aucune odeur de ces produits chimiques caractéristiques ne pouvait être décelée. A la fin du petit discours, je me permis de demander à ses collaborateurs comment ils travaillaient puisqu’il n’y avait rien sur les paillasses. Il est vrai que je n’avais pas remis les pieds dans un laboratoire de recherche en biologie depuis plus de dix ans et je me rendis compte que tout avait changé. Des machines automatiques avaient remplacé des armadas de petites mains, ces techniciennes sans qui on ne pouvait pas faire progresser le travail, et les ordinateurs étaient connectés à des banques de données et réalisaient des calculs ultrarapides pour faire ressortir des résultats dits « statistiquement significatifs ».

De mon temps il fallait parfois plusieurs semaines de travail pour purifier un enzyme à partir de dix kilos de levures pour pouvoir effectuer le dosage d’un métabolite intermédiaire dans une biosynthèse. A peine quinze ans plus tard, des spectromètres miniaturisés effectuent ce travail en quelques secondes, le seul savoir-faire des candidats au doctorat se limite à la préparation des échantillons dans de minuscules tubes à l’aide de réactifs prêts à l’emploi. Le reste de la recherche proprement dite s’effectue avec un ordinateur et pour acquérir un soupçon de confiance les résultats obtenus sont comparés à d’autres résultats provenant d’autres laboratoires en considérant que tout le monde scientifique est sans exception d’une honnêteté irréprochable.

Pourtant, ce n’est pas tout à fait le cas, loin de là ! Quand on lit la presse scientifique, ce que je fais tous les jours, on est souvent étonné de trouver un article qui vante les effets « potentiellement  » bénéfiques du café pour prévenir certains cancers et quelques semaines plus tard un autre article sur le même café qui au contraire « peut » être la cause de cancers, on est en droit d’être surpris sinon déconcerté. Même chose pour les statines, le seuil de LDL pour prescrire ces statines varie selon les études et d’une semaine à l’autre on peut lire tout et son contraire. Ou encore les « radiations » émises par les téléphones cellulaires «pourraient » être la cause de tumeurs du cerveau. En réalité toutes ces études ne tiennent pas compte de la qualité des évidences scientifiques qui sont multifactorielles car le nouveau scientifique échafaude des hypothèses et tente de les prouver en réalisant ce que l’on appelle des méta-analyses partant du principe que plus il y a de données disponibles, plus grande sera la confiance que l’on pourra accorder aux résultats et par voie de conséquence ce scientifique d’un genre nouveau sera d’autant plus convaincu que son hypothèse est vraie.

La recherche scientifique est ainsi devenue, avec la généralisation des outils informatiques et statistiques, une sorte de miroir dans lequel le chercheur se projète. Plus il se regarde dans le miroir (l’écran de son ordinateur) plus il est satisfait de lui-même quand bien même l’hypothèse de départ est complètement fausse. En d’autres termes la recherche scientifique est devenue un entreprise d’auto-satisfaction qui conduit à des publications dans des revues à comités de lecture supposés composés de scientifiques honnêtes (ce qui est loin d’être toujours le cas) et ces publications servent à obtenir de nouveaux crédits (grants en anglais) pour permettre au chercheur de continuer à se regarder dans son miroir.

Pourtant, on pourrait croire que le travail de recherche en laboratoire est expérimental et qu’il consiste à sérier l’étude des variables intervenant dans un processus afin d’en obtenir une description aussi détaillée que possible. Comme il est infiniment plus facile et rapide, et aussi moins coûteux, d’observer ce que les autres ont observé pour en déduire n’importe quoi, alors la recherche devient progressivement n’importe quoi ! Lorsqu’un résultat semble intéressant, une expérimentation bâclée sans aucun respect des protocoles basiques pourtant connus de tous les scientifiques valide ce que l’ordinateur a recraché après avoir réalisé une étude statistique portant sur, disons, plus de cinquante mille cas. Et on obtient des articles scientifiques sensationnels du genre « la vitamine C diminue les risques de rhume » alors que strictement rien ne le prouve chez les humains mais ce résultat a été confirmé sur des souris et il est donc validé.

Les sociétés Bayer et Amgen, toutes deux impliquées dans la santé humaine ont méticuleusement réalisé une analyse de milliers d’articles scientifiques concernant de près leurs préoccupations de recherche. Bayer s’est rendu compte que moins de 25 % des travaux publiés pouvaient être reproduits en laboratoire et avec Amgen c’est pire, seulement 11 % des articles pourtant publiés dans des revues prestigieuses comme Nature, Science ou les PNAS pouvaient être reproduits. Amgen a eu « l’audace » de contacter certains signataires d’articles dignes d’intérêt pour ses propres recherches. Les auteurs ont eux-même, c’est un comble, été incapables de reproduire leur propre travail pourtant publié après revue par un comité de lecture dans l’environnement strict d’un laboratoire de recherche industriel scrupuleusement respectueux des protocoles expérimentaux. Pour les recherches sur les anti-cancéreux, la proportion diminue à 5 % ! Il suffit de lire cet article pour s’en rendre compte ( http://www.nature.com/nrclinonc/journal/v8/n4/full/nrclinonc.2011.34.html ) … Les études initiales sont en général le fait de laboratoires universitaires financés par des fonds publics ou des fondations caritatives qui ont elles-mêmes tout intérêt à « forcer » à la découverte puisque les enjeux financiers sont présents à l’esprit de ces fondations comme des universités et autres instituts de recherche. Mais quand une société comme Bayer s’aperçoit, quelques centaines de millions de dollars plus tard, que les essais en phase II sont décevants, il est trop tard ! C’est la raison pour laquelle, avant toute décision, les résultats scientifiques sont en premier lieu vérifiés.

L’Université du Colorado à Denver tient à jour une liste des périodiques scientifiques « de caniveau » ( http://scholarlyoa.com/individual-journals/ ) qui est édifiante en particulier dans les secteurs de la pharmacologie et de l’informatique, curieux rapprochement. Rien au sujet des revues de climatologie mais on peut espérer que les périodiques intimement impliqués dans ce secteur de non-science feront partie un jour prochain de cette liste qui est intéressante à consulter.

Sources : NY Times, PubMed, U. of Colorado, illustration NY Times.

De l’usage des statistiques par les médecins …

Le Directeur de la très respectée British Heart Foundation, le Professeur Peter Weissberg, considère que les statines ont entrainé une chute significative des maladies cardiovasculaires en Grande-Bretagne depuis leur apparition au milieu des années 90. Or les statistiques contredisent cette affirmation ! Depuis les années 70, le nombre d’accidents cardiovasculaires décroit linéairement année après année sans qu’une corrélation claire aie pu être établie avec les traitements prescrits aux malades, que ce soient les drogues anti-arythmie, les anticoagulants, les beta-bloquants et plus récemment les statines. En effet, le nombre de prescriptions pour les beta-bloquants et les statines croit de manière exponentielle depuis le milieu des années 90 et on devrait s’attendre en toute logique à une décroissance exponentielle des accidents cardiovasculaires. Les statistiques prouvent le contraire et de surcroit aucune corrélation n’a pu être établie en 20 ans entre la prise de statines et la diminution du risque d’infarctus ou d’embolie cérébrale.

Ce même Professeur persiste et signe dans l’erreur, si l’on peut utiliser cette expression, quand il déclare d’un ton pontifiant, je cite : « Si une personne a 20 % de chance d’avoir un accident cardiovasculaire dans les 10 années à venir, il faut lui prescrire des statines. Une chance sur cinq ! Si vous aviez une chance sur cinq de gagner à la loterie, vous achèteriez un billet ! ». En tenant un tel discours, le directeur de la British Heart Foundation fait une belle démonstration de l’usage abusif des statistiques, surtout quand ces dernières sont tout simplement ignorées.

Prenons son raisonnement différemment. La grande majorité des personnes traitées avec des statines n’ont jamais eu de problèmes vasculaires en dehors d’un taux de cholestérol peut-être légèrement élevé. Dans ces conditions, il faudrait que sur 100 personnes 75 d’entre elles suivent un traitement anti-cholestérol pour éviter une crise cardiaque ou une attaque cérébrale. En d’autres termes les chances (statistiques) d’observer un bénéfice avec ce traitement sont de 1 sur 75.

Cet éminent personnage, dont les recommandations sont suivies par le Ministère de la Santé anglais, oublie de mentionner dans son argumentaire qu’il y a aussi 20 % de chances (1 sur 5) de voir se développer des effets secondaires néfastes, connus des fabricants de statines mais soigneusement passés sous silence par les médecins prescripteurs, comme l’apparition de diabète, des douleurs musculaires, fatigue et toxicité pour le foie et les reins. On peur donc légitimement se poser la question du choix entre une réduction hypothétique des accidents cardiovasculaires et souffrir pendant des années durant de ces effets secondaires handicapants …

 

Source : Dr John Briffa (www.drbriffa.com)

Science et statistiques ne font pas bon ménage

Il est maintenant admis que les méta-analyses, ces analyses d’analyses qui sont sensées détecter la vérité parce que le nombre de cas agrégés est tel qu’il apporte une crédibilité inattaquable aux résultats obtenus avec des logiciels qui font dire tout et n’importe quoi aux grands nombres, ces méta-analyses, donc, conduisent à des résultats et des recommandations inattaquables puisque la loi des grands nombres en est la garantie de véracité. Si une analyse ne donne pas les résultats attendus, qu’à cela ne tienne, on modifie les critères de classement et en quelques secondes d’utilisation de la CPU de n’importe quel ordinateur portable tout rentre dans l’ordre attendu. C’est la science moderne assistée par ordinateur, une science dévoyée surtout quand il s’agit justement de grands nombres manipulés sans la moindre règle d’éthique initiale. C’est exactement ce qui ressort d’une récente étude réalisée pendant 15 ans sur 74000 femmes d’Europe en cours de grossesse et vivant dans un environnement urbain normal. Normal veut dire vivre non pas à dix mètres d’une autoroute ou d’une usine d’incinération de déchets ménagers ou industriels, non, vivre seulement dans une ville anonyme, européenne, avec ses voitures, ses camions de livraison, ses autobus, la normalité, le fondement de la crédibilité de l’analyse. Sur la base des données il ressort que « les femmes enceintes exposées à la pollution atmosphérique urbaine « peuvent » être exposées à un plus grand risque de mettre au monde un enfant pesant moins de 5,5 livres (2,5 kg) ». Notons le « peuvent », ce qui n’est pas une affirmation mais une indication qui ressort donc de l’analyse portant tout de même sur 74000 femmes. Il est dit dans cette étude que si la pollution urbaine (par les microparticules) ne dépassait pas les recommandations de l’OMS qui sont de moins de 10 microgrammes de microparticules par mètre cube, 22 % des naissances avec déficit pondéral seraient évitées. C’est clair, c’est net, c’est dit, mais 22 % de quoi ? Pour apporter quelques précisions l’auteur en charge de cette étude, le Docteur Marie Pedersen du Centre de Recherche en Epidémiologie Environnementale de Barcelone précise que ces 22 % de différence « correspondraient » aux cas qui seraient évités si les femmes enceintes européennes cessaient de fumer durant la grossesse. Je n’invente rien, je l’ai lu dans un article de Reuters Health (New-York, premier novembre 2013), ce qui pourrait vouloir dire que 22 % des femmes enceintes en Europe fument pendant leur grossesse. En corrélant les données disponibles ainsi que les statistiques relatives aux pollutions urbaines, au moins celles disponibles, l’étude a permis de mettre en avant un autre résultat statistique tout à fait probant dont on appréciera la saveur : toute augmentation de 5 microgrammes de microparticules par mètre cube d’air entraine un accroissement  de 18 % du risque de naissance à terme avec déficit pondéral. Ca fait peur surtout quand le poids à la naissance est rapproché d’une autre donnée tout aussi alarmante qui est le périmètre crânien car tout le monde sait que ce dernier paramètre n’est absolument pas corrélé au poids de l’enfant nouveau-né … Les normes relatives à la pollution urbaine due aux particules fines varient d’un pays à l’autre. Par exemple l’Agence de Protection de l’Environnement américaine (EPA) place la barre assez haut : pas plus de 35 microgrammes par période de 24 heures. Elle est revenue sur ses recommandations en 2013 en fixant cette limite d’exposition à 12 microgrammes. En Europe cette limite est fixée à 25 microgrammes alors que l’OMS préconise 10 microgrammes. Voilà d’où viennent ces 22 % de naissances avec déficit pondéral qui pourraient être évitées si la norme de l’OMS était respectée. Mais pas de chance, l’étude a montré par ailleurs que toute augmentation de 5 microgrammes de microparticules par mètre cube d’air entrainait une augmentation de 18 % du déficit pondéral à la naissance. Si je demande à un enfant de CM1 de faire le calcul, il va certainement se tromper car il ne comprendra rien. En réalité ces 22 % d’augmentation correspondent à 6,1 microgrammes de microparticules de plus par mètre cube, oui mais en plus de quoi ? L’étude ne le dit pas mais cite tout de même un résultat ressortant très clairement de la méta-analyse comme le dit le Docteur Pedersen : « 145 cas de déficit pondéral à la naissance pourraient être évités sur 50151 naissances étudiées si les mères avaient été exposées à seulement 10 microgrammes de particules par mètre cube ». Ca fait beaucoup : 0,28 % de diminution. Cherchez l’erreur !

Ce genre d’étude de plus en plus courante est naturellement reprise par les médias qui s’emparent du mauvais côté des résultats pour les amplifier et les véhiculer jusqu’aux politiciens et autres décideurs y compris des opportunistes qui oeuvreront pour la bonne cause, le bien des générations futures. Par exemple munir les femmes enceintes de petits moniteurs portatifs de la pollution citadine pour que ces dernières se sentent culpabilisées en exposant le fœtus qu’elles portent aux émanations délétères des autobus, des taxis et des camions de livraison. Mais ce type de résultat « scientifique » est aussi utilisé pour obtenir que les pouvoirs publics prennent des mesures concrètes dans l’urgence afin de limiter les émissions de particules par les taxis, les voitures et les autobus en suggérant par exemple que les autobus soient équipés de piles à combustible et les taxis obligatoirement de technologie stop/start pour éviter ces émanations lorsqu’ils sont à l’arrêt. A partir d’une étude truquée pourtant publiée dans The Lancet, tout devient permis pour alourdir la législation au nom de l’environnement. Triste tournant qu’a pris la science et triste utilisation qui en est faite …

Source : Reuters Health

Le chômage a augmenté de 0,00184 % en mai !

Les statistiques du chômage pour le mois de mai sont enfin rendues publiques … le 26 juin, un record d’inertie pour l’INSEE et tous les services de l’Etat, à croire que les ponts et divers jours fériés du mois de mai ont donné lieu à des RTT à la Aubry une partie du mois de juin. Les données communiquées par le Figaro ce soir sont d’une extrême précision : 100 nouveaux demandeurs d’emploi sur un total de 5.418.400 ! J’en reste pantois, cinq chiffres après la virgule, du jamais vu dans les statistiques … Pour les sceptiques, je m’explique : 100/5418400 = 0,0000184 ou encore 0,00184 % de variation. On aurait pu espérer une aussi hilarante précision pour les données relatives à la croissance (ou la décroissance) de l’économie française au cours des trimestres passés. Mais non, on s’est contenté d’un +/- 0,1 %, une imprécision carrément grossière, « l’épaisseur du trait » comme l’avait déclaré un ministre, je ne me souviens plus lequel mais ça n’a aucune importance dans le cas précis du chômage puisqu’on est ici dans l’épaisseur d’un cheveu coupé en huit dans le sens de la longueur !

Mais on ne peut pas s’empêcher de renifler la grosse magouille dans les données statistiques, c’est tellement simple de transférer quelques poignées de chômeurs d’une catégorie à une autre pour (presque) donner raison au gouvernement et à son chef de la rue Saint-Honoré. Les chômeurs apprécieront …