SARS-CoV-2 : Fausses données de mortalité, fausse pandémie

L’Institut supérieur italien de la santé a considérablement réduit le nombre officiel de décès dus au SARS-CoV-2 dans le pays de plus de 97% après avoir changé la définition d’un décès d’une personne décédée du SARS-CoV-2. Le journal italien Il Tempo rapporte que l’Institut a révisé à la baisse le nombre de personnes décédées de comorbidités plutôt que du SARS-CoV-2 de 130 000 à moins de 4 000.

Sur les 130 468 décès enregistrés comme décès officiels dus au SARS-CoV-2 depuis le début de la pandémie, seuls 3 783 sont directement attribuables au seul virus. Tous les autres Italiens qui ont perdu la vie avaient entre une et cinq maladies préexistantes. Parmi les personnes de plus de 67 ans décédées, 7 % avaient plus de trois comorbidités et 18 % au moins deux.

Selon l’Institut, 65,8% des Italiens décédés après avoir été infectés par le SARS-CoV-2 étaient atteints d’hypertension artérielle, 23,5% souffraient de démence, 29,3% de diabète et 24,8% de fibrillation auriculaire. Ajoutez à cela : 17,4% avaient des problèmes pulmonaires, 16,3% avaient eu un cancer au cours des cinq dernières années et 15,7% avaient déjà souffert d’insuffisance cardiaque.

La nouvelle définition de l’Institut italien d’un décès par SARS-CoV-2 signifie que ce virus a tué moins de personnes en Italie que la grippe saisonnière moyenne. Si un changement similaire était apporté par d’autres gouvernements nationaux, le nombre officiel de décès dus au COVID serait réduit de plus de 90 %.

Ne vous attendez pas à ce que beaucoup d’autres emboîtent le pas, étant donné que les gouvernements ont investi une grande partie de leur autorité dans la promotion de la menace que constitue le virus.

Notes. L’information provenant d’Italie relatée dans ce billet n’est pas très récente mais elle a été soigneusement occultée par les grands médias car elle ébranle les fondements de la politique de privation des libertés individuelles mise en place par de nombreux pays européens. Si on multiplie par 0,09 toutes les statistiques publiées pour tous les pays on retrouve les vrais chiffres du nombre de décès par SARS-CoV-2. Le cas des Etats-Unis est particulier. Dans ce pays, plus de 60 % de la population est en surpoids pathologique. En suivant la méthodologie de l’Institut supérieur italien de la santé sur les 780000 décès classés « par SARS-CoV-2 » plus de la moitié peut être classée comme comorbidité d’obésité soit soit 340000 décès favorisés par cette pathologie et si on multiplie ce nombre restant par 0,09 on obtient 30600 morts. C’est stupéfiant mais je reconnais que mon calcul est sujet à la critique. Remarque : la plupart des « cas » et des décès « avec SARS-CoV-2 » sont de faux résultats dus aux faux positifs du test PCR discrédité par l’OMS.

https://www.iltempo.it/attualita/2021/10/21/news/rapporto-iss-morti-covid-malattie-patologie-come-influenza-pandemia-disastro-mortalita-bechis-29134543/

https://www.globalresearch.ca/italian-institute-health-drastics-reduces-official-covid-death-toll-number/5760891

Petite coronarithmétique française

Selon les données de la CIA et du worldometers (liens en fin de billet) on peut se livrer à quelques petits calculs qui éclairent le commun des mortels ou plutôt ceux qui ont survécu au SARS-CoV-2 au sujet de l’« extrême » gravité et de la dangerosité de ce virus. Les données démographiques relatives à la France sont les suivantes (CIA) : 68 millions d’habitants, espérance de vie : 82,4 ans, mortalité : 651500 décès par an. Le nombre de morts par SARS-CoV-2 depuis le début de l’épidémie (mars 2020) est de 117000 avec un âge médian des morts de 82 ans. L’organisme officiel français INSEE a fait de savants calculs pour bien montrer que le SARS-CoV-2 a provoqué une hausse massive de la mortalité. Les données ci-dessus infirment les résultats de ces calculs de l’INSEE.

En effet, l’âge médian signifie que la moitié des morts avait plus de 82 ans et l’autre moitié moins de 82 ans. Durant ces 18 mois passés, dans la stricte théorie statistique toutes les personnes de plus de 82 ans seraient mortes, coronavirus ou pas. Pour les personnes plus jeunes la situation est plus complexe et c’est sur ce point que l’INSEE a commis un biais de perception comme l’indique dans son exposé Pierre de Décoder l’éco. Par une analyse statistique fine il a été montré qu’en 2020, et probablement aussi en 2021, la mortalité toutes causes confondues était identique à celle observée en 2010. Cette affirmation tient en effet compte de l’augmentation du nombre de personnes de plus de 80 ans au cours de cette décennie. Cet « ajustement » statistique élimine ainsi le biais de perception dont a été victime l’INSEE et il réduit l’incidence du SARS-CoV-2 sur les populations de moins de 82 ans.

Comme je ne suis pas du tout un statisticien chevronné j’ai donc fait mes petites règles de trois de mon côté. Sur la période de mars 2020 à septembre 2021 le nombre de morts « par covid » a représenté 11,9 % des décès toutes causes confondues et comme la moitié d’entre eux seraient morts (statistiquement parlant) coronavirus ou pas en raison de leur âge, ce pourcentage tombe à un peu moins de 6 %. Cette grandeur est très inférieure à la fluctuation observée année après année entre les étés et les hivers. Elle est très inférieure à celle de l’arrivée dans la tranche d’âge supérieure à 80 ans qui a augmenté de 3,9 millions en dix ans (voir l’illustration ci-dessus). Comme l’auteur de cette présentation l’a précisé, la mortalité n’a donc pas augmenté en raison de cette augmentation du nombre de « vieux » de plus de 80 ans car ils sont loin d’avoir tous été victimes du coronavirus !

L’épidémie de SARS-CoV-2 n’est donc finalement qu’une maladie virale plutôt peu mortelle affectant surtout les personnes âgées souffrant d’autres maladies, l’âge étant aussi considéré comme un facteur de « co-morbidité » et personne ne peut le nier. L’étude présentée par le prénommé Pierre mérite d’être vue et revue car son analyse bouscule les idées reçues et surtout la propagande gouvernementale mensongère. L’illustration est une capture d’écran de l’exposé de Pierre.

https://www.worldometers.info/coronavirus/country/france/

https://www.cia.gov/the-world-factbook/countries/france/

https://www.francesoir.fr/videos-lentretien-essentiel/lesperance-de-vie-de-2020-est-exactement-la-meme-que-celle-de-2015

SARS-CoV-2 : une étude en provenance d’Israël est une véritable bombe

Avec Sahar Gavish, statisticien, le Docteur Steve Ohana, économiste, s’est penché sur les décès dus au SARS-CoV-2 depuis la mise en place de la vaccination à grande échelle contre ce virus avec la technologie nouvelle dite à ARN messager. Sur les 212 pays que compte la planète Terre, seuls ont été retenus ceux utilisant exclusivement ce type de vaccin (tableau ci-dessous). La mortalité provoquée par le coronavirus a été prise en compte seulement après un délai de 120 jours après administration de la première dose (au moins) du vaccin. Le nombre de doses injectées a été homogénéisé en considérant le nombre de ces doses / 100 personnes et la mortalité, toujours dans un but d’homogénéisation, a été exprimée en nombre de morts par million de personnes et par an puisque l’étude a été étendue entre 30 et 120 jours après la première dose de vaccin. Et cette mortalité ainsi exprimée a été comparée à celle répertoriée dans les mêmes populations avant toute vaccination avec la même unité de mesure par million et par an.

Les résultats sont étonnants pour ne pas dire déroutants. Si on considère les pays où le taux de vaccination est le plus élevé 120 jours après le début de la campagne de vaccination rapporté à 100 habitants on constate par exemple qu’aux Seychelles le nombre de morts (par an et par million) avant vaccination était de 12 et après vaccination de 1031. Pour Israël, par ordre décroissant de ce taux de vaccination, mêmes figures : avant vaccination, 445 morts par million et par an et après vaccination 1059. Arrive ensuite les Emirats arabes unis : 292 et 82, puis Malte : 614 avant vaccination et 1102 après ces 120 jours suivant le début de la vaccination.

Peu de pays échappent statistiquement à cette situation. Il s’agit du Liechtenstein, de Panama, de l’Arabie saoudite, Singapour, l’Islande et curieusement mais de manière non significative du Royaume-Uni de la Belgique et des Etats-Unis. À croire que ces derniers pays ont largement surestimé le nombre de morts par coronavirus avant le début des campagnes de vaccination. La Principauté de Monaco se distingue car le nombre de morts enregistrés 120 jours après le début de la vaccination est 4 fois supérieur à celui ayant été enregistré avant cette vaccination.

Quelle conclusion en tirent ces deux auteurs ? Tout simplement que plus le nombre de doses administrées – de 0 à plus de 120 – rapporté à 100 habitants est élevé plus la mortalité augmente. La question qui se pose alors est la suivante : ces vaccins à ARN protègent-ils vraiment les personnes ou bien sensibilisent ces mêmes personnes à tel point qu’elles développent ultérieurement une forme grave de cette maladie si elles entrent en contact avec le vrai virus ? Cette situation rappelle étrangement le scandale du vaccin mis au point par la firme Sanofi pour protéger contre la dengue. Des essais en phase III ont été réalisés aux Philippines auprès de dizaines de milliers d’enfants. Ayant été ultérieurement en contact avec l’un ou l’autre des virus (il en existe 4 sérotypes différents) plus de 2000 d’entre eux en sont morts car ils ont développé une forme grave de cette fièvre hémorragique. Leur système immunitaire a été hyper-sensibilisé à l’une ou l’autre forme du virus car le vaccin de Sanofi était sensé protéger contre les 4 formes de ce virus. Ces pseudo-vaccins anti-coronavirus qui ne sont que quelques microgrammes d’un brin d’ARN codant pour la protéine spike d’attachement du virus sur la surface cellulaire ne provoqueraient-ils pas ce genre de cas de figure ?

Source et tableau : https://steve-ohana.medium.com/have-covid-vaccines-saved-lives-a-cross-country-approach-b6b38754e181 (trouvé sur le web via France-Soir)

Grippe coronavirale en France : des faits !

Capture d’écran 2020-07-29 à 15.32.20.png

J’ai capté ce graphique au cours d’une interview du Professeur Didier Raoult il y a quelques jours. Raoult est un passionné de chiffres et de statistiques qui peuvent faire ressortir des phénomènes épidémiologiques qu’un observateur de terrain, en l’occurence un complexe hospitalier comme l’IHU + hôpital de la Timone à Marseille, peut ne jamais déceler.

Reprenant les données brutes disponibles auprès de l’administration, ici les décès facilement comptabilisés à partir des certificats établis obligatoirement à cette occasion, Raoult a montré un phénomène totalement ignoré par la presse aux ordres du gouvernement et des puissances financières qui ont installé au pouvoir le président Macron et qui contrôlent cette presse servile : au cours des 4 mois d’hiver passés, de décembre à mars inclus, il y a eu globalement moins de morts en France qu’au cours des mêmes périodes des trois années précédentes ! C’est à se demander s’il y a eu réellement une grippe coronavirale redoutable et éminemment mortelle comme on l’avait servie aux Français avec des dizaines de milliers de morts et un engorgement ingérable des services d’urgence des hôpitaux publics.

Si on considère les 30265 morts par coronavirus soit 13,7 % de toutes les causes de mortalité on peut faire quelques comparaisons intéressantes et relativiser l’ « extrême dangerosité » de ce virus qui préoccupe toujours les politiciens pour une raison que j’ai toujours beaucoup de mal à discerner sinon emmerder les citoyens encore et encore : on trouve les cancers en première ligne avec 27 % des décès (on ne peut pas mettre un masque pour se protéger d’un cancer !), suivis par les maladies cardiovasculaires – 26 % – les drogues en tous genres, tabac, alcool, stupéfiants, … : 17 %, décès suivis par l’obésité (10 %) etc, … Comme il ne faut pas oublier que le coronavirus est venu à bout majoritairement de « vieux » (50 % des morts étaient âgés de plus de 80 ans !) et de ceux, plus jeunes, souffrant aussi de maladies cardiovasculaires, de cancers et éventuellement d’obésité il est difficile de dire aujourd’hui quelle a été la contribution nette de la mortalité globale en France provoquée par ce virus, probablement à peine plus qu’une grippe saisonnière à influenza pour laquelle sont attribués 1,5 % du total des décès de ces dernières années. Toutes les données ci-dessus sont disponibles sur internet, je n’ai rien inventé.

Je doute que l’administration française osera publier des statistiques détaillées prenant en compte les co-morbidités au sujet de la grippe coronavirale de cette année 2020 car ces données ridiculiseraient l’ensemble du gouvernement et en particulier le président de la République, mais cette situation n’est pas particulière à la France. Et les dirigeants politiques continuent à entretenir la peur alors que si le nombre de cas positifs augmente sporadiquement le nombre de morts est devenu négligeable. Il est essentiel de mentionner que cette augmentation du nombre de « cas de coronavirus » sont la directe conséquence du nombre de tests enfin pratiqués à grande échelle, aussi bien en France qu’en Espagne ou encore en Italie.

Maintenant les politiciens commencent à constater que les mesures stupides et moyenâgeuses qui ont été décidées pour juguler cette grippe – finalement une simple grippette – ont tout simplement conduit à une récession économique jamais connue dans son ampleur depuis le début de la seconde guerre mondiale, alors chers politiciens cessez de nous emmerder avec ce virus !

Paracetamol pendant la grossesse : pas vraiment de danger.

 

Quand les médecins font des mathématiques, c’est affligeant !

Une étude « très » sérieuse réalisée conjointement par les Universités de Bristol et d’Oslo portant sur 114761 enfants pour qui le dossier médical de leurs mères avait été dûment enregistré dans le cadre d’une étude reliant les médicaments pris lors de la grossesse et les pathologies dont pouvaient souffrir les enfants a conclu à un effet néfaste du paracétamol sur ces derniers. La relation de cause à effet entre le paracétamol au cours de la grossesse et l’apparition d’allergie, dont l’asthme, a été établie de manière « indubitable ». Il faut lire l’article en détail pour comprendre que l’affirmation de ces médecins est une vaste supercherie. Mes lecteurs curieux peuvent se risquer à la lecture de cet article paru dans l’International Journal of Epidemiology qui est un exemple de mauvaise foi et de fausse science (voir le lien).

En effet, rien n’indique clairement qu’il puisse exister une relation entre la prise de paracétamol par la mère au cours de la grossesse et quel que soit l’état d’avancement de cette grossesse avec l’apparition d’asthme chez l’enfant. Le suivi des enfants n’a été réalisé qu’en fonction du paracétamol et non sur la base d’autres critères. L’échantillonnage des enfants diagnostiqués comme souffrant d’asthme était ciblé en trois catégories : quelques mois après la naissance, à trois ans et à sept ans et seuls les enfants en très bas âge ont semble-t-il été affectés par cette prise de paracétamol au cours de la grossesse.

Capture d’écran 2016-02-15 à 18.56.27.png

Les conclusions de ces travaux purement statistiques font ressortir que la prise de paracétamol durant la grossesse a une « influence certaine » sur l’apparition précoce de l’asthme chez l’enfant selon les conclusions des auteurs de cette étude. Cette influence est-elle significative ? On peut raisonnablement en douter car il faut avoir un oeil exercé pour décrypter les données présentées dans cet article : quelques points de pourcentage de différence, une différence significative ?

Je n’ai jamais été un féru de statistiques mais il paraît clair que cette différence relève du bruit de fond statistique … Cette étude aurait pu tout aussi bien montrer que manger du chocolat pendant la grossesse était un facteur favorable à l’apparition de l’asthme chez l’enfant. On peut faire dire ce qu’on veut aux chiffres avec de telles études statistiques. Comme en ce qui concerne le climat, la médecine dérive dangereusement vers des modélisations mathématiques et des analyses statistiques ex abrupto qui n’ont plus aucun lien avec la réalité. Méfiance !

Capture d’écran 2016-02-14 à 23.02.38.png

Notes relatives aux illustrations. 1 : reproduit ici un fragment du tableau 2 de l’article qui décrit les cas d’asthme chez les enfants de 3 ans. La deuxième colonne indique le pourcentage d’enfants atteints.

2 : exemple d’une relation de cause à effet : l’incidence du nombre de meurtres avec des produits ou des objets chauds sur l’âge de Miss America. Sans commentaire …

Source : doi: 10.1093/ije/dyv366

Statistiques de l’emploi, de la croissance et des prix : toutes frauduleuses !

 

Vendredi fut encore une journée grise pour les bourses tant européennes qu’asiatique mais également pour la bourse de N-Y. Pourtant toutes les places financières attendaient, des filets de salive d’envie à la commissure des lèvres, la publication mensuelle de la situation de l’emploi américaine. Bingo ! Presque 300000 emplois créés en décembre. Les bourses ont réagi en s’enfonçant dans le rouge : SMI -2,28, CAC -1,59 et le Dow -1,02. C’est à n’y rien comprendre. Une des très rares bonnes nouvelles de la semaine n’a pas réjoui les investisseurs.

Mais que se passe-t-il ? L’explication est limpide : les investisseurs ne croient plus aux statistiques publiées par les gouvernements et pas seulement celles de la Chine – tout le monde sait que le gouvernement chinois fraude depuis des années – mais bel et bien celles des USA, surtout en ce qui concerne les chiffres de l’emploi. En France la manipulation de ces statistiques est devenue un exercice de style dans lequel excelle l’INSEE, organisme gouvernemental mandaté par le gouvernement pour que sa bonne gouvernance soit reconnue par le péquin moyen sans moufeter.

Pour ce qui concerne les USA la fraude a pris une ampleur cosmique. Entre décembre 2014 et décembre 2015 la population active américaine a diminué de 1185000 emplois. Au jour d’aujourd’hui il y a 94691000 (je l’écris en toutes lettres quatre-vingt-quatorze millions, il n’y a pas d’erreurs de zéros) d’Américains en âge de travailler qui n’ont pas d’emploi et la Maison-blanche prétend que tout va bien, c’est du grand foutage de gueule. L’ « embellie » de décembre concerne 165000 jobs de personnes âgées de 46 à 54 ans qui ont trouvé un travail à temps partiel de manœuvres, de plongeurs dans un restaurant ou de serveurs dans un bar parce qu’ils se sont soudain retrouvés au chômage et qu’ils n’ont aucune pension. Il y a eu en un an un accroissement de 527000 personnes ayant deux ou plusieurs jobs à temps partiel. Ce dernier mois de décembre, seulement 16000 personnes âgées de 25 à 54 ans ont retrouvé un emploi stable. Enfin dans cette embellie de décembre il faut inclure les 142000 retraités qui ont du retrouver en toute urgence un job pour faire face à leurs dépenses comme par exemple le remboursement des hypothèques sur leur maison ou celui de leurs emprunts de jeunesse (qu’ils n’ont toujours pas fini de rembourser) pour financer leurs études car leur caisse de retraite a diminué leur pension. Et la raison est très facile à comprendre : ces caisses de retraite perdent de l’argent en raison de la politique des taux zéro de la FED.

L’autre aspect de cette fraude est le fameux – et fumeux – ajustement saisonnier des données statistiques qui autorise les administrations à amalgamer dans une sorte de modèle totalement déconnecté du bon-sens des prévisions disparates afin de « lisser » comme disent les statisticiens les données brutes. Sur les 292000 nouveaux emplois de décembre 2015 décrétés par l’administration 281000 d’entre eux sont dus, comme par une espèce de magie arithmétique, à l’ajustement saisonnier ! Le même type de fraude sur les chiffres est également appliqué pour l’évolution du prix du panier de la ménagère. En d’autres termes les gouvernements, tous sans exception, nous mentent à longueur de jours et de semaines pour dissimuler leurs mauvaises décisions et l’état de plus en plus dégradé des économies dans leur ensemble. Et cette arrogante propagande est naturellement reprise par les médias asservis par le pouvoir.

Paul Craig Roberts peint la situation de l’emploi nord-américain dans une analyse réaliste en ces termes : « La prétendue augmentation du nombre d’emplois concerne toujours les services domestiques non commerciaux, c’est-à-dire des emplois qui ne contribuent pas à l’exportation de biens et qui n’entrent pas en compétition avec les biens importés. C’est exactement le profil d’emplois qu’on rencontre dans les pays du tiers-monde. C’est ce qui arrivera dans quelques décennies aux USA, une tiers-mondialisation de son économie ».

Inutile de chercher d’autres raisons au total manque d’intérêt des milieux financiers pour les statistiques gouvernementales : ils ont sanctionné ces statistiques frauduleuses.

Source : PCR

L’open-data, avantages et inconvénients (en Grande-Bretagne)

Fluvastatine

Inutile de préciser que ce billet ne concerne pas la France puisque l’open data des données médicales ne semble pas être à l’ordre du jour dans l’Hexagone, probablement en raison de l’opposition de l’ordre des médecins, fâcheuse réminiscence des sombres heures fachisto-communistes du régime de Vichy, bref, je ne veux pas lasser mes lecteurs sur ce sujet. Il s’agit de la Grande-Bretagne avec son institution NICE, acronyme d’un organisme étatique (il y en a aussi en GB) qu’on désignerait en France sous le nom d’Institut Nationale de l’Excellence des Soins de Santé. NICE a pour but de faire parvenir électroniquement des directives au corps médical pour la prévention ou le traitement de telle ou telle pathologie et ces directives sont mises à jour périodiquement, environ tous les 5 ans. Le dernier projet de directive concerne le cholestérol ou pour être plus précis la version intermédiaire du document qui est libre d’accès et peut à tout moment être modifié avant sa version définitive qui tiendra compte des remarques et commentaires du corps médical. Il s’agit des thérapies de modification des lipides pour la prévention des accidents cardiovasculaires. Vous avez bien lu comme moi et il n’est pas difficile de comprendre qu’il s’agit de l’usage raisonné des statines.

J’ai disserté à plusieurs reprises dans mon blog des statines et il est facile de retrouver tous les billets sur ce sujet en entrant statine dans la fenêtre « recherche ». Je ne reparlerai pas ici de ce que je pense de ces médicaments mais de la démarche de NICE qui est exemplaire de ce que l’on peut et ne pas faire avec l’open-data médical. Le gouvernement anglais par le truchement de NICE s’attaque aux dépenses de santé moins élevées qu’en France mais la chasse aux économies est mieux organisée outre-Manche et la prévention permet de réaliser des économies substantielles. Pour les maladies cardiovasculaires, troisième cause de mortalité en GB, il n’y a qu’à prescrire des statines et éventuellement donner des conseils pour améliorer un peu son style de vie, moins manger, moins fumer et picoler, faire un peu d’exercice et manger cinq fruits et cinq légumes par jour, la litanie habituelle.

Pour les statines, en terme d’économies c’est bingo selon NICE qui se base sur une définition obscure du facteur de risque d’apparition de maladies cardiovasculaires directement issu du taux officiellement admissible du « mauvais » cholestérol circulant dosé à jeun ou pas, ça n’a pas d’importance, mais si, c’est écrit en toutes lettres dans le rapport : Lipid Modification(update) : NICE guideline DRAFT – Feb 2014. Jusqu’à la lecture de ce rapport je croyais que les analyses des lipides sanguins étaient faites sur un prélèvement à jeun mais je me trompe peut-être. Aucune indication claire sur ce facteur de risque mais NICE a décidé d’abaisser ce facteur de 20 à 10 % tant pis si des statines seront prescrites à des personnes en parfaite santé (jusqu’à 80 mg par jour), le système étatique de santé anglais ne pourra que mieux s’en porter, pas vraiment les patients mais c’est un autre problème qui ne concerne pas le ministre de la santé. Les laboratoires pharmaceutiques n’ayant jamais rendu publiques leurs résultats l’open-data a tout de même fait ressortir finalement des effets secondaires plus ou moins gênants comme des douleurs musculaires et des myopathies handicapantes, des pertes de mémoire, l’apparition de diabète de type 2 ou encore des troubles de l’érection chez l’homme. Peu importe puisque le but de ces recommandations est de réaliser des économies et de grossir par la même occasion les profits des laboratoires pharmaceutiques. Sans vouloir critiquer cet organisme (NICE) on s’aperçoit tout de même qu’il préconise l’usage des statines suivantes : Pravastatine (Bristol-Myers-Squibb – 1,3 Milliard de dollars), Simvastatine (Merck, deuxième statine la plus vendue dans le monde, pas de données économiques), Atorvastatine (Pfizer 12,5 milliards engrangés depuis son AMM, première statine vendue dans le monde) ou encore Rosuvastatine (Astra-Zeneca, 2,6 milliards rien qu’en 2013), bravo NICE, c’est du bon travail !

Mais là où l’open-data a tout de même du bon c’est l’étude statistique qu’il a permis de réaliser pour évaluer les réels bénéfices des statines. D’abord on sait qu’en 2010 par exemple il y a eu 80000 morts par infarctus et 49000 par AVC en GB. Partant des données disponibles sur plusieurs années, l’open-data a eu au moins l’intérêt de montrer que la prescription de statines ne diminuait pas significativement le nombre de décès par accidents cardiovasculaires, curieux tout de même. En d’autres termes, en réalisant des études statistiques sur des grands nombres, on sait mieux ce qu’on fait et on le fait mieux, on a évalué qu’il fallait traiter au moins 345 personnes par an pour prévenir au moins 1 accident cardiaque et si on combine infarctus et AVC au moins 245 personnes doivent être traitées pour éviter l’un ou l’autre des accidents. Enfin l’open-data a mis le doigt sur un point vraiment gênant, sur les analyses sanguines des patients ayant décédé de ces maladies cardiovasculaires aucune corrélation n’a pu être établie avec le taux de cholestérol circulant peu avant la mort ou post-mortem, en d’autres termes aucun bénéfice clinique clair des statines n’a pu être formellement démontré !

La question est alors, et mes lecteurs se la poseront certainement, qui se moque de qui et les autorités de santé sont-elles vraiment indépendantes du lobby de l’industrie pharmaceutique ? Ca se passe en Grande-Bretagne mais qu’en est-il en France, bonne question !

Sources : Guardian et Harvard Medical School, illustration Fluvastatine (Wikipedia)

La science moderne dans tous les états !

JOURNALS-articleLarge

Il y a quelques années je suis allé rendre visite à un ancien élève de thèse de science à qui j’avais transmis une partie de mon savoir. Il était devenu directeur d’un laboratoire de virologie de réputation internationale. Il me présenta à ses collaborateurs réunis dans le laboratoire. A l’époque où ce brillant chercheur préparait sa thèse les paillasses étaient encombrées de toutes sortes de fioles et de tubes, de la vaisselle attendait dans un grand bac d’acide, on devait attendre notre tour pour faire des calculs avec l’unique calculateur du laboratoire et on devait dessiner à l’encre de Chine les illustrations des manuscrits que nous avions l’intention de soumettre à publication.

Dans cet endroit tout neuf, les paillasses étaient vides, rien, pas le moindre tube à essai. Un appareil de forme cubique était posé dans un coin avec comme tout prolongement un clavier et un écran. Quelques ordinateurs portables trainaient ça et là, aucune odeur de ces produits chimiques caractéristiques ne pouvait être décelée. A la fin du petit discours, je me permis de demander à ses collaborateurs comment ils travaillaient puisqu’il n’y avait rien sur les paillasses. Il est vrai que je n’avais pas remis les pieds dans un laboratoire de recherche en biologie depuis plus de dix ans et je me rendis compte que tout avait changé. Des machines automatiques avaient remplacé des armadas de petites mains, ces techniciennes sans qui on ne pouvait pas faire progresser le travail, et les ordinateurs étaient connectés à des banques de données et réalisaient des calculs ultrarapides pour faire ressortir des résultats dits « statistiquement significatifs ».

De mon temps il fallait parfois plusieurs semaines de travail pour purifier un enzyme à partir de dix kilos de levures pour pouvoir effectuer le dosage d’un métabolite intermédiaire dans une biosynthèse. A peine quinze ans plus tard, des spectromètres miniaturisés effectuent ce travail en quelques secondes, le seul savoir-faire des candidats au doctorat se limite à la préparation des échantillons dans de minuscules tubes à l’aide de réactifs prêts à l’emploi. Le reste de la recherche proprement dite s’effectue avec un ordinateur et pour acquérir un soupçon de confiance les résultats obtenus sont comparés à d’autres résultats provenant d’autres laboratoires en considérant que tout le monde scientifique est sans exception d’une honnêteté irréprochable.

Pourtant, ce n’est pas tout à fait le cas, loin de là ! Quand on lit la presse scientifique, ce que je fais tous les jours, on est souvent étonné de trouver un article qui vante les effets « potentiellement  » bénéfiques du café pour prévenir certains cancers et quelques semaines plus tard un autre article sur le même café qui au contraire « peut » être la cause de cancers, on est en droit d’être surpris sinon déconcerté. Même chose pour les statines, le seuil de LDL pour prescrire ces statines varie selon les études et d’une semaine à l’autre on peut lire tout et son contraire. Ou encore les « radiations » émises par les téléphones cellulaires «pourraient » être la cause de tumeurs du cerveau. En réalité toutes ces études ne tiennent pas compte de la qualité des évidences scientifiques qui sont multifactorielles car le nouveau scientifique échafaude des hypothèses et tente de les prouver en réalisant ce que l’on appelle des méta-analyses partant du principe que plus il y a de données disponibles, plus grande sera la confiance que l’on pourra accorder aux résultats et par voie de conséquence ce scientifique d’un genre nouveau sera d’autant plus convaincu que son hypothèse est vraie.

La recherche scientifique est ainsi devenue, avec la généralisation des outils informatiques et statistiques, une sorte de miroir dans lequel le chercheur se projète. Plus il se regarde dans le miroir (l’écran de son ordinateur) plus il est satisfait de lui-même quand bien même l’hypothèse de départ est complètement fausse. En d’autres termes la recherche scientifique est devenue un entreprise d’auto-satisfaction qui conduit à des publications dans des revues à comités de lecture supposés composés de scientifiques honnêtes (ce qui est loin d’être toujours le cas) et ces publications servent à obtenir de nouveaux crédits (grants en anglais) pour permettre au chercheur de continuer à se regarder dans son miroir.

Pourtant, on pourrait croire que le travail de recherche en laboratoire est expérimental et qu’il consiste à sérier l’étude des variables intervenant dans un processus afin d’en obtenir une description aussi détaillée que possible. Comme il est infiniment plus facile et rapide, et aussi moins coûteux, d’observer ce que les autres ont observé pour en déduire n’importe quoi, alors la recherche devient progressivement n’importe quoi ! Lorsqu’un résultat semble intéressant, une expérimentation bâclée sans aucun respect des protocoles basiques pourtant connus de tous les scientifiques valide ce que l’ordinateur a recraché après avoir réalisé une étude statistique portant sur, disons, plus de cinquante mille cas. Et on obtient des articles scientifiques sensationnels du genre « la vitamine C diminue les risques de rhume » alors que strictement rien ne le prouve chez les humains mais ce résultat a été confirmé sur des souris et il est donc validé.

Les sociétés Bayer et Amgen, toutes deux impliquées dans la santé humaine ont méticuleusement réalisé une analyse de milliers d’articles scientifiques concernant de près leurs préoccupations de recherche. Bayer s’est rendu compte que moins de 25 % des travaux publiés pouvaient être reproduits en laboratoire et avec Amgen c’est pire, seulement 11 % des articles pourtant publiés dans des revues prestigieuses comme Nature, Science ou les PNAS pouvaient être reproduits. Amgen a eu « l’audace » de contacter certains signataires d’articles dignes d’intérêt pour ses propres recherches. Les auteurs ont eux-même, c’est un comble, été incapables de reproduire leur propre travail pourtant publié après revue par un comité de lecture dans l’environnement strict d’un laboratoire de recherche industriel scrupuleusement respectueux des protocoles expérimentaux. Pour les recherches sur les anti-cancéreux, la proportion diminue à 5 % ! Il suffit de lire cet article pour s’en rendre compte ( http://www.nature.com/nrclinonc/journal/v8/n4/full/nrclinonc.2011.34.html ) … Les études initiales sont en général le fait de laboratoires universitaires financés par des fonds publics ou des fondations caritatives qui ont elles-mêmes tout intérêt à « forcer » à la découverte puisque les enjeux financiers sont présents à l’esprit de ces fondations comme des universités et autres instituts de recherche. Mais quand une société comme Bayer s’aperçoit, quelques centaines de millions de dollars plus tard, que les essais en phase II sont décevants, il est trop tard ! C’est la raison pour laquelle, avant toute décision, les résultats scientifiques sont en premier lieu vérifiés.

L’Université du Colorado à Denver tient à jour une liste des périodiques scientifiques « de caniveau » ( http://scholarlyoa.com/individual-journals/ ) qui est édifiante en particulier dans les secteurs de la pharmacologie et de l’informatique, curieux rapprochement. Rien au sujet des revues de climatologie mais on peut espérer que les périodiques intimement impliqués dans ce secteur de non-science feront partie un jour prochain de cette liste qui est intéressante à consulter.

Sources : NY Times, PubMed, U. of Colorado, illustration NY Times.

De l’usage des statistiques par les médecins …

Le Directeur de la très respectée British Heart Foundation, le Professeur Peter Weissberg, considère que les statines ont entrainé une chute significative des maladies cardiovasculaires en Grande-Bretagne depuis leur apparition au milieu des années 90. Or les statistiques contredisent cette affirmation ! Depuis les années 70, le nombre d’accidents cardiovasculaires décroit linéairement année après année sans qu’une corrélation claire aie pu être établie avec les traitements prescrits aux malades, que ce soient les drogues anti-arythmie, les anticoagulants, les beta-bloquants et plus récemment les statines. En effet, le nombre de prescriptions pour les beta-bloquants et les statines croit de manière exponentielle depuis le milieu des années 90 et on devrait s’attendre en toute logique à une décroissance exponentielle des accidents cardiovasculaires. Les statistiques prouvent le contraire et de surcroit aucune corrélation n’a pu être établie en 20 ans entre la prise de statines et la diminution du risque d’infarctus ou d’embolie cérébrale.

Ce même Professeur persiste et signe dans l’erreur, si l’on peut utiliser cette expression, quand il déclare d’un ton pontifiant, je cite : « Si une personne a 20 % de chance d’avoir un accident cardiovasculaire dans les 10 années à venir, il faut lui prescrire des statines. Une chance sur cinq ! Si vous aviez une chance sur cinq de gagner à la loterie, vous achèteriez un billet ! ». En tenant un tel discours, le directeur de la British Heart Foundation fait une belle démonstration de l’usage abusif des statistiques, surtout quand ces dernières sont tout simplement ignorées.

Prenons son raisonnement différemment. La grande majorité des personnes traitées avec des statines n’ont jamais eu de problèmes vasculaires en dehors d’un taux de cholestérol peut-être légèrement élevé. Dans ces conditions, il faudrait que sur 100 personnes 75 d’entre elles suivent un traitement anti-cholestérol pour éviter une crise cardiaque ou une attaque cérébrale. En d’autres termes les chances (statistiques) d’observer un bénéfice avec ce traitement sont de 1 sur 75.

Cet éminent personnage, dont les recommandations sont suivies par le Ministère de la Santé anglais, oublie de mentionner dans son argumentaire qu’il y a aussi 20 % de chances (1 sur 5) de voir se développer des effets secondaires néfastes, connus des fabricants de statines mais soigneusement passés sous silence par les médecins prescripteurs, comme l’apparition de diabète, des douleurs musculaires, fatigue et toxicité pour le foie et les reins. On peur donc légitimement se poser la question du choix entre une réduction hypothétique des accidents cardiovasculaires et souffrir pendant des années durant de ces effets secondaires handicapants …

 

Source : Dr John Briffa (www.drbriffa.com)

Science et statistiques ne font pas bon ménage

Il est maintenant admis que les méta-analyses, ces analyses d’analyses qui sont sensées détecter la vérité parce que le nombre de cas agrégés est tel qu’il apporte une crédibilité inattaquable aux résultats obtenus avec des logiciels qui font dire tout et n’importe quoi aux grands nombres, ces méta-analyses, donc, conduisent à des résultats et des recommandations inattaquables puisque la loi des grands nombres en est la garantie de véracité. Si une analyse ne donne pas les résultats attendus, qu’à cela ne tienne, on modifie les critères de classement et en quelques secondes d’utilisation de la CPU de n’importe quel ordinateur portable tout rentre dans l’ordre attendu. C’est la science moderne assistée par ordinateur, une science dévoyée surtout quand il s’agit justement de grands nombres manipulés sans la moindre règle d’éthique initiale. C’est exactement ce qui ressort d’une récente étude réalisée pendant 15 ans sur 74000 femmes d’Europe en cours de grossesse et vivant dans un environnement urbain normal. Normal veut dire vivre non pas à dix mètres d’une autoroute ou d’une usine d’incinération de déchets ménagers ou industriels, non, vivre seulement dans une ville anonyme, européenne, avec ses voitures, ses camions de livraison, ses autobus, la normalité, le fondement de la crédibilité de l’analyse. Sur la base des données il ressort que « les femmes enceintes exposées à la pollution atmosphérique urbaine « peuvent » être exposées à un plus grand risque de mettre au monde un enfant pesant moins de 5,5 livres (2,5 kg) ». Notons le « peuvent », ce qui n’est pas une affirmation mais une indication qui ressort donc de l’analyse portant tout de même sur 74000 femmes. Il est dit dans cette étude que si la pollution urbaine (par les microparticules) ne dépassait pas les recommandations de l’OMS qui sont de moins de 10 microgrammes de microparticules par mètre cube, 22 % des naissances avec déficit pondéral seraient évitées. C’est clair, c’est net, c’est dit, mais 22 % de quoi ? Pour apporter quelques précisions l’auteur en charge de cette étude, le Docteur Marie Pedersen du Centre de Recherche en Epidémiologie Environnementale de Barcelone précise que ces 22 % de différence « correspondraient » aux cas qui seraient évités si les femmes enceintes européennes cessaient de fumer durant la grossesse. Je n’invente rien, je l’ai lu dans un article de Reuters Health (New-York, premier novembre 2013), ce qui pourrait vouloir dire que 22 % des femmes enceintes en Europe fument pendant leur grossesse. En corrélant les données disponibles ainsi que les statistiques relatives aux pollutions urbaines, au moins celles disponibles, l’étude a permis de mettre en avant un autre résultat statistique tout à fait probant dont on appréciera la saveur : toute augmentation de 5 microgrammes de microparticules par mètre cube d’air entraine un accroissement  de 18 % du risque de naissance à terme avec déficit pondéral. Ca fait peur surtout quand le poids à la naissance est rapproché d’une autre donnée tout aussi alarmante qui est le périmètre crânien car tout le monde sait que ce dernier paramètre n’est absolument pas corrélé au poids de l’enfant nouveau-né … Les normes relatives à la pollution urbaine due aux particules fines varient d’un pays à l’autre. Par exemple l’Agence de Protection de l’Environnement américaine (EPA) place la barre assez haut : pas plus de 35 microgrammes par période de 24 heures. Elle est revenue sur ses recommandations en 2013 en fixant cette limite d’exposition à 12 microgrammes. En Europe cette limite est fixée à 25 microgrammes alors que l’OMS préconise 10 microgrammes. Voilà d’où viennent ces 22 % de naissances avec déficit pondéral qui pourraient être évitées si la norme de l’OMS était respectée. Mais pas de chance, l’étude a montré par ailleurs que toute augmentation de 5 microgrammes de microparticules par mètre cube d’air entrainait une augmentation de 18 % du déficit pondéral à la naissance. Si je demande à un enfant de CM1 de faire le calcul, il va certainement se tromper car il ne comprendra rien. En réalité ces 22 % d’augmentation correspondent à 6,1 microgrammes de microparticules de plus par mètre cube, oui mais en plus de quoi ? L’étude ne le dit pas mais cite tout de même un résultat ressortant très clairement de la méta-analyse comme le dit le Docteur Pedersen : « 145 cas de déficit pondéral à la naissance pourraient être évités sur 50151 naissances étudiées si les mères avaient été exposées à seulement 10 microgrammes de particules par mètre cube ». Ca fait beaucoup : 0,28 % de diminution. Cherchez l’erreur !

Ce genre d’étude de plus en plus courante est naturellement reprise par les médias qui s’emparent du mauvais côté des résultats pour les amplifier et les véhiculer jusqu’aux politiciens et autres décideurs y compris des opportunistes qui oeuvreront pour la bonne cause, le bien des générations futures. Par exemple munir les femmes enceintes de petits moniteurs portatifs de la pollution citadine pour que ces dernières se sentent culpabilisées en exposant le fœtus qu’elles portent aux émanations délétères des autobus, des taxis et des camions de livraison. Mais ce type de résultat « scientifique » est aussi utilisé pour obtenir que les pouvoirs publics prennent des mesures concrètes dans l’urgence afin de limiter les émissions de particules par les taxis, les voitures et les autobus en suggérant par exemple que les autobus soient équipés de piles à combustible et les taxis obligatoirement de technologie stop/start pour éviter ces émanations lorsqu’ils sont à l’arrêt. A partir d’une étude truquée pourtant publiée dans The Lancet, tout devient permis pour alourdir la législation au nom de l’environnement. Triste tournant qu’a pris la science et triste utilisation qui en est faite …

Source : Reuters Health