On régresse (à propos du créationisme)

La pratique religieuse altère le cerveau … C’était le titre d’un billet laissé sur mon blog le 18 août dernier (voir le lien) et aux Etats-Unis elle altère préférentiellement le cerveau des Républicains. C’est ce qui ressort d’un sondage réalisé par le Pew Research Center :

Un tiers des Américains rejettent la théorie de l’évolution

Un tiers des Américains rejettent la théorie de l’évolution, montre un sondage du Pew Research Center. Ils estiment que les « humains et autres êtres vivants existent dans leur forme actuelle depuis le commencement du temps ».

Cependant, 60% des Américains disent que les « humains et autres êtres vivants ont évolué au cours du temps ». Cette proportion est la même que lors de la précédente enquête du Pew Research Center sur la question en 2009, mais l’institut constate un écart croissant selon les affinités politiques.

« L’écart vient des républicains, qui sont moins nombreux à dire que les humains ont évolué au cours du temps », explique Cary Funk, le chercheur de Pew qui a mené cette analyse. Ainsi, 43% des républicains et 67% des démocrates acceptent l’idée d’évolution, contre 54% et 64% respectivement il y a quatre ans.

Cette enquête a été conduite par téléphone auprès de 1983 adultes dans les 50 Etats américains. (ats / 31.12.2013 08h59) .

Je n’invente donc rien, les Américains régressent mais un peu moins qu’en 2009 ce qui est tout de même encourageant. Pourquoi les Républicains seraient plus enclins à croire au créationisme que les Démocrates, probablement parce qu’ils sont justement plus conservateurs et refusent les ouvertures pourtant évidentes de la science moderne qui a permis d’établir des relations génétiques entre les Neandertaliens, les Denisovans et l’homme moderne tel qu’on le rencontre dans le Middle-West américain ou encore en Louisiane et quelques autres Etats où l’enseignement du créationisme est obligatoire à l’école.

Si on suit à la lettre le créationisme, j’admets que l’on puisse avoir des convictions religieuses, il n’y aurait donc pas pu y avoir de mélanges génétiques entre nos ancêtres et les résultats récents obtenus par des techniques de séquençage de l’ADN qui étaient encore inenvisageables il y a moins de dix ans sont donc faux et qui plus est, l’homme de Néanderthal n’a jamais existé, c’est une lubie des paléoanthropologues, puisque selon le créationisme il n’existe plus pour la simple raison qu’il n’était pas à l’image de dieu, en quelque sorte un raté, un coup d’essai qui a échoué … Sauf que le créationisme n’explique pas non plus comment les humains ont peuplé la terre entière ni avec quelle chronologie. D’où sont-ils tous parti ? La Bible qui est le pilier de la croyance créationniste ne donne aucune indication précise, quelque part au Proche-Orient mais sans plus de détails. Si la Genèse avait mentionné par exemple que l’homme avait été façonné avec l’argile de la rivière Omo, il y a bien longtemps qu’on serait allé chercher par là-bas des preuves de l’origine de l’homme comme des centaines d’archéologues s’évertuent toujours à rassembler le plus d’indices possibles pour donner un semblant de véracité aux Ecritures. Pour l’origine de l’homme, aucun succès. L’homme est apparu d’un seul coup, un peu comme la génération spontanée pour les bactéries et les mouches du vinaigre !

C’est suffisant pour qu’un Américain sur trois y croit les yeux fermés. Triste statistique et comme le billet du 18 août dernier le mentionnait, la pratique religieuse altère les fonctions cognitives puisque l’homme, dans ce domaine particulier, n’est plus capable de sens critique. Et s’il n’y avait que le créationisme on pourrait être un peu optimiste, mais cette aliénation consentie se retrouve aussi en politique, en économie et aussi, bien plus grave, dans certaines disciplines scientifiques à la mode qui sont dévoyées pour ancrer dans les esprits des dogmes totalement erronés comme ceux de la Genèse.

L’homme n’a cessé d’évoluer jusqu’à aujourd’hui mais il commence à régresser à une vitesse vertigineuse …

https://jacqueshenry.wordpress.com/2013/12/19/nos-ancetres-etaient-donc-bien-des-betes-de-sexe/

https://jacqueshenry.wordpress.com/2013/12/05/nos-ancetres-lointains-etaient-des-vraies-betes-de-sexe/

https://jacqueshenry.wordpress.com/2013/11/21/ce-qui-fait-que-nous-sommes-nous-et-personne-dautre/

https://jacqueshenry.wordpress.com/2013/08/18/la-pratique-religieuse-altere-le-cerveau/

Changements climatiques ? Ce sont les volcans !!!

Prometheus_Wheeler

Si la dendrochronologie et l’analyse des carottes glaciaires sont des sciences exactes, l’interprétation des résultats obtenus peut ne pas être tout aussi exacte. La dendrochronologie consiste à analyser très finement les cernes des troncs d’arbre et pour ce faire les meilleurs spécimens d’arbres sont ceux que l’on trouve en altitude dans des zones du globe où l’altitude et la pluviométrie sont telles que la croissance des ces arbres permet de remonter le temps. Les plus connus sont les pins bristlecone que l’on trouve dans les montagnes de la Sierra Nevada et de la Coastal Range en Californie à des altitudes allant jusqu’à 3500 mètres. Ces arbres qui ne ressemblent d’ailleurs pas à des arbres mais plutôt à de gros buissons sont parfois vieux de plus de 6000 ans et ils sont toujours en vie, autant dire qu’il s’agit d’un matériel de choix pour tenter de corréler l’épaisseur des cernes avec les variations du climat. Plus le temps est clément plus les cernes sont épais et vice-versa. On a pu corréler ces études avec les données obtenues par carottage des glaciers du Groenland ou de l’Antarctique pour tenter d’obtenir une bonne image des variations climatiques au cours des siècles et même des millénaires passés.

Ce dont on s’est rendu compte c’est l’incidence non négligeable des éruptions volcaniques sur la croissance de ces arbres car qui dit éruption cataclysmique dit aussi obscurcissement de l’atmosphère par des aérosols et des poussières pendant une durée déterminée, veut aussi dire une croissance ralentie des arbres pendant les quelques années suivant cette éruption. Par exemple l’explosion du Kuwae au Vanuatu en 1452, dont il ne reste que quelques îlots désolés appelés les Sheperds (Mataso, Tongariki ou encore Buninga) fut l’une des plus importantes de ces 5 siècles passés et aurait dit-on provoqué une famine y compris en Europe qui précipita la chute de l’Empire de Constantinople. Pour situer l’ampleur de cette catastrophe on estime, d’après les carottes glaciaires, que 90 kilomètres cube de cendres et de poussières ont été éjectés dans l’atmosphère à haute altitude avec 500 millions de tonnes d’acide sulfurique. Et effectivement cette éruption particulièrement puissante affecta la croissance des bristlecone pines de la Sierra californienne pendant près de 16 années consécutives à plus ou moins quelques années près. Mais le climat redevint après cet épisode normal, jusqu’à l’éruption suivante …

Le problème c’est que depuis disons l’an 1200 il y a eu au bas mot une grosse trentaine d’éruptions volcaniques notoires mais toutes n’ont pas affecté le climat comme le Kuwae. Les chroniques parlent d’années sans été en 1785 (explosion du Laki en Islande) ou 1815 (explosion du Tambora) avec un retour rapide à la normale en moins de cinq ans. Certes, l’explosion du Laki aurait provoqué des disettes qui ont été la cause primaire de la révolution française mais sans autres preuves formelles puisque justement la dendrochronologie n’a pas laissé de traces de ces deux éruptions exceptionnelles comme d’ailleurs celle du Krakatoa en 1883. Si on peut affirmer que la dendrochronologie est une science exacte elle est aussi entachée d’incertitudes et l’absence de perturbation de la croissance des arbres peut tout simplement dire que d’autres facteurs ont oeuvré dans un sens opposé. Toutes ces incertitudes prises en compte, avec également la reconstitution des cycles d’activité solaire avec l’évaluation du béryllium 10 dans les stalagmites et les sédiments, ne permet pas de conclure ni dans un sens ni dans un autre d’une modification durable du climat après une éruption volcanique et ce quelque soit son importance.

Malgré tout, les climatologues sensés prédire l’avenir se sont intéressé de très près à la dendrochronologie pour étayer leurs hypothèses et rejeter tout effet du soleil sur le climat de la Terre. Ils ont comme pour leurs prédictions pour le moins fumeuses du climat à venir à l’aide de modèles sophistiqués « bidouillé » les résultats pourtant clairs et nets amassés sur tout un échantillonnage d’arbres dispersés entre la Chine, la Sibérie, l’Europe du Nord ou la Californie, pour finalement éliminer l’incidence de l’activité solaire sur la croissance des arbres. Ils ont réalisé des modélisations pour faire ressortir ce qui s’était non pas réellement passé mais ce qu’ils attendaient pour valider les simulations du climat à venir. Pour arriver à atteindre ce type de résultat, il suffit de partir d’un temps zéro « arrangeant » et à se référer à une moyenne également « arrangeante » qui pour une raison inexpliquée a été choisie comme étant la moyenne des températures observées ou déduites d’autres données entre les années 1450 et 1850. Si cette moyenne de référence avait été choisie pour les températures des années couvrant la période 1200-1900, le résultat aurait été totalement différent. Avoir choisi 1450 et 1850 n’est pas un effet du hasard puisque ces dates excluent le réchauffement climatique médiéval considéré comme une anomalie par ces climatologues d’opérette mais englobe les minima de Maunder et de Dalton, que des bons plans pour biaiser l’analyse des données de dendrochronologie et faire ressortir en les amplifiant les cycles de forte activité solaire qui se sont succédé depuis le début des années 50 et qui ont pris fin il y a dix ans. Ca s’appelle de l’honnêteté scientifique à l’état pur !

Le pire dans cette histoire c’est que de telles foutaises ont été publiées dans Nature par des géophysiciens de l’Université d’Edimbourg. Comme on dit, il ne faut pas scier la branche de l’arbre sur laquelle on est assis, en d’autres termes si ces climatologues auto-proclamés reconnaissaient qu’ils ont tort et qu’en réalité c’est bien le soleil qui dirige tout sur Terre avec une influence momentanée des volcans mais certainement pas durable, ils se retrouveraient au chômage. Car des explosions volcaniques comme celles du Salamas (1257, dix fois plus puissante que celle du Pinatubo en 1991), du Santorin en 1650 qui éjecta 60 km-cube de poussière ou du Santa Maria et de la Montagne Pelée en 1902 n’ont laissé aucune trace dans les cernes des arbres, pas d’explication … Mais qu’à cela ne tiennent, ce sont maintenant les volcans qui modifient le climat avec leurs centaines de millions de tonnes d’acide sulfurique et de poussières et le soleil n’y est pour rien.

1200px-MtRedoubtedit1

Source : Eurekalert et Nature, illustrations Wikipedia (volcan Redoubt, Alaska et bristlecone pine, Sierra Nevada) Pour les anglophones, ce lien : http://www.youtube.com/watch?v=4zOXmJ4jd-8

L’exception culturelle française ? On va taxer internet !!!

Le gouvernement français cherche à trouver un stratagème pour taxer internet. Il y a eu l’affaire du blog de Chevallier repris par un blogueur américain interdit de fait de séjour en France puisqu’il devrait acquitter une amende de 9500 euros (voir un de mes billets il y a quelques mois) et maintenant le CSA a organisé une réflexion pour protéger l’exception culturelle française qui coûte aux contribuables aux alentours de 2 milliards d’euros par an uniquement en considérant les subsides généreusement versés aux intermittents du spectacle. L’exception culturelle française consiste entre autres idioties à doubler les films étrangers pour justement grossir les dizaines de milliers de parasites intermittents, ce qui a pour conséquence de rendre la population française totalement hermétique aux langues étrangères, mais bon, c’est aussi un problème qui relève de la calamiteuse qualité des enseignants en langues du système socialiste de l’éducation nationale. Mais puisque YouTube, Facebook, Dailymotion et d’autres sites interfèrent avec la production (hypothétique) culturelle française, on va les taxer pour justement financer le maintien hors du bouillon de l’industrie audio-visuelle et cinématographique française totalement exsangue et inintéressante à part une ou deux exceptions près tous les cinq ans.

Comme le gouvernement français est décidément à court d’argent, il est question très sérieusement de taxer aussi les services de communication gratuits mis à la disposition des internautes moyennant une contribution mensuelle largement équivalente à un abonnement téléphonique, Google +, Skype, Facebook et d’autres sites vont donc être également taxés puisque Orange subit de « lourdes » pertes à cause de ces sites pirates. Orange n’est plus une société appartenant à l’Etat mais il faut protéger encore les quelques employés de cette compagnies qui roulent toujours avec un statut de fonctionnaires. Pour en rajouter une couche, comme on le sait, Amazon est aussi dans le collimateur puisque cette firme (américaine) nuit à l’exception culturelle française en faisant perdre des parts de marché aux libraires et autres éditeurs français hexagonaux exceptionnellement géniaux dans l’art de répandre la culture française.

Mais il y a un gros souci et ce dernier souligne la totale incompétence des autorités françaises en la matière, la plupart des sociétés qui fleurissent sur le web ne sont pas françaises, d’une part, et celles qui comme Amazon sont actives en France ont leur siège social hors de France mais en Europe, et conformément aux accords européens toute loi Française devant s’appliquer à de telles sociétés doit être conforme aux lois européennes ainsi qu’aux aux lois internationales. Encore une fois le gouvernement est un ramassis d’incompétents, d’ignorants et d’opportunistes tous mus par une idéologie de façade pour justifier leurs actes et leur enrichissement personnel. Vu depuis l’autre côté de l’Atlantique c’est risible.

L’autre souci dans cette histoire rocambolesque, c’est qu’à force de passer pour des imbéciles, les Français en général et leur gouvernement fantoche en particulier vont finir par en subir les conséquences et tôt ou tard le pays sera sanctionné par la Commission Européenne pour non respect des traités mais aussi par les investisseurs qui finiront par bouder la France car la crédibilité du pays et son image sont ternies par de telles décisions totalement ineptes.

Source (puisque tout blogueur doit citer ses sources) : Forbes

Pourquoi ne pas légaliser la marijuana ?

cD1hMWQzNjMzZjJkNWM5Y2U3ZWZiOGQ2OWU5NTQ4YTVjZiZnPTU0MTlmNWJkMjQ2ZGVmYTQyMmVmYTE5MTFhN2FlOGJm

Après l’Uruguay c’est au tour du Colorado et de l’Etat de Washington de légaliser l’achat et l’usage de la marijuana et du cannabis dans des coffee shops à partir du premier janvier 2014. Tout le monde est content, à commencer par les sociétés déjà en place pour faire du business comme Telluride Bud Co qui commercialise du cannabis de qualité contrôlée pour un usage médical et aussi et surtout les fonctionnaires chargés de collecter les taxes pour l’Etat. La marijuana est un puissant analgésique et 19 Etats nord-américains ont légalisé son usage à des fins médicales ce qui a naturellement entrainé une tolérance et fumer un joint n’est plus un acte criminel comme l’était le fait de boire du whisky durant la prohibition.

Les chiffres parlent d’eux-mêmes : en 2013 la marijuana à usage médical aura représenté un marché de 1,4 milliard de dollars qui est estimé à 2,34 milliards pour 2014. Rien que dans le Colorado qui compte dans ses montagnes à la neige d’une qualité exceptionnelle quelques unes des plus belles stations de ski du monde, 348 licences commerciales ont été accordées y compris pour de toutes petites échoppes qui sont autorisées à vendre jusqu’à 28 grammes d’herbe par personne. Dans l’Etat de Washington pas moins de 3746 candidatures ont été déposées pour 867 licences commerciales. C’est donc terminé, cannabis et marijuana sortent de la clandestinité et vont être la source de nombreux emplois parce qu’il va falloir faire face à la demande du marché et également la source de substantiels revenus fiscaux pour ces Etats.

En Uruguay, la culture de la marijuana à des fins commerciales ne pourra être faite que dans le cadre d’une licence délivrée par les autorités avec naturellement le paiement d’une patente et de taxes sur les ventes. Au niveau consommation, fumer un pétard en pleine rue à Montevideo est déjà toléré depuis de nombreuses années mais c’est la culture et la vente qui seront légalisées le Premier janvier 2014 pour le plus grand bien des finances du pays et également des vendeurs de serres éclairées pour tous les particuliers qui auront obtenu leur licence d’exploitation de l’herbe.

En ce qui concerne l’usage médical de la marijuana, un substitut du cannabis est disponible dans le commerce sous le nom de Marinol dont la matière active est le tétrahydrocannabinol pur. Or la marijuana contient plus de 60 alcaloïdes différents dont le cannabidiol qui prévient les convulsions chez les malades atteints de sclérose en plaques et le cannabichromène, un anti-inflammatoire considéré comme présentant de puissantes propriétés analgésiques recherchées par certaines personnes souffrant de névralgies récurrentes qui préfèrent de très loin fumer un joint pour calmer leurs douleurs.

En France, voir les banlieues devenir des zones touristiques où on pourra aller acheter son herbe en toute légalité dans des petites boutiques ouvertes 24 heures sur 24 relève de l’utopie, et pourtant tout le monde serait gagnant …

Source : Reuters et Associated Press

Revue de presse vespérale : quenelles givrées

En plein été austral, un navire russe est bloqué par les glaces à la suite d’un blizzard improbable qui poussa les glaces autour de lui à une centaine de miles nautiques de la base française Dumont D’Urville et 1500 miles nautiques de la Tasmanie. Un puissant brise glace chinois a tenté en vain de s’approcher du navire en perdition mais a cessé de progresser en raison de l’épaisse couche de glace chaotique. Heureusement pour le moral des passagers et scientifiques du bateau russe, il fait jour 24 heures sur 24 et il y a de quoi se nourrir pour au moins une quinzaine de jours. Après ce délai, il faudra commercer à tirer à la courte paille pour savoir lequel sera le premier mangé.

Il n’y a plus de saison comme dirait madame Michu …

Shokalskiy_2776232c

Alors que Manuel Valls n’avait pas pu prédire la puissance de la dépression qui a parcouru la France il y a quelques jours (on ne lui a jamais demandé d’être climatologue ni météorologue) il veut faire des misères à l’un des rares humoristes que compte encore la France, le dénommé Dieudonné, parce qu’il fait des quenelles au cours de ses spectacles. Je ne savais pas de quoi on parlait, plutôt orienté gastronomie lyonnaise, la quenelle sauce Nantua, et j’ai découvert ce dont il s’agissait en regardant une vidéo pour une fois sans les 30 secondes de publicité de rigueur Nicolas Anelka faire ce geste que d’aucuns considèrent comme raciste.

Et le majeur dressé vers le haut, c’est sexiste ou simplement grossier ?

Source (puisque tout blogueur doit citer ses sources) The Telegraph et

http://sport24.lefigaro.fr/football/etranger/angleterre/actualites/anelka-un-double-et-une-quenelle-670102

Malbouffe : une autre conspiration ?

western-pack-butter

Depuis les années 70 et l’émergence des mouvements sociétaux de prise en compte des effets de la nourriture sur la santé et du souci d’une alimentation dite plus saine, non seulement les autorités de santé ont lancé des signaux d’alarme sans aucun fondement scientifique mais les industriels de l’agro-alimentaire leur ont emboité le pas pour réaliser des profits inespérés. Tout a commencé quand on a normalisé les analyses sanguines relatives à la teneur en divers corps gras, acides gras et cholestérol, et à relier ces normes à l’incidence des maladies cardio-vasculaires. Mais cette relation n’était pas prouvée ni statistiquement ni au cas par cas. Pour illustrer cette situation surréaliste, une étude portant sur 231986 patients hospitalisés pour des problèmes cardiaques vient de clairement montrer que la moitié d’entre eux avaient des taux normaux de LDL. Or les LDL, c’est la bête noire des cardiologues et des nutritionnistes qui à longueur de publicités et de recommandations affirment, donc sans preuve formelle comme le montre a posteriori cette étude (American Heart Journal (2009) 157(1), 111-117) que manger « gras » est mauvais pour la santé et pourtant ce dogme des LDL est bien ancré dans les esprits.

Pour abaisser le taux de LDL il faut manger moins de corps gras et surtout moins de produits riches en cholestérol, voilà la ligne de conduite qui a été adoptée. Si on examine en détail le problème, des protéines sanguines dont en particulier l’albumine sont chargées de véhiculer les corps gras vers leur lieu d’utilisation depuis le foie et retour vers ce dernier organe, comme les globules rouges véhiculent l’oxygène dans un sens puis le gaz carbonique dans l’autre en passant par les poumons. Pour les corps gras, acides gras libres, phospholipides (mono-, di- et tri-glycérides) et cholestérol pour faire bref, il y a des lipoprotéines de haute densité (HDL) et des lipoprotéines de faible densité (LDL) et parmi ces LDL, il y en a plusieurs catégories, celles dites légères et compactes et celles dites légères et floconneuses si on peut utiliser ce termes puisque tout est compliqué en biologie. La classification et la quantification sont aujourd’hui faites par des techniques de résonance magnétique nucléaire rapides et précises. Puisque les corps gras en général ont été incriminés une analyse sanguine permet de situer « l’état » du patient en regard de normes internationalement établies. L’analyse donne donc un profil de ce que l’on appelle d’ailleurs abusivement le bon et le mauvais cholestérol et des triglycérides. Le bon cholestérol est fixé sur des lipoprotéines de haute densité et le mauvais sur des lipoprotéines de faible densité, ces fameuses LDL et le médecin vous dira doctement, comme il sait si bien le faire et d’ailleurs on le croit sur parole, qu’il faut faire attention à l’alimentation, en un mot ne pas manger trop gras. Et si ça ne suffit pas, une louche de statines et le tour est joué, tout le monde est content et rassuré, le patient en premier lieu qui ne se pose en général pas de questions, le médecin qui n’a pas pris de risques, et au final les industriels de l’agroalimentaire qui ont pour devoir de fabriquer des produits conformes aux normes et les pharmaciens qui vendent leurs poisons. Tout est donc pour le mieux dans le meilleur des mondes possibles, sauf que depuis la fin des années 70 et l’apparition de ces « normes dogmatiques », l’obésité, les maladies cardio-vasculaires et le diabète de type II ont progressé sans arrêt dans le monde occidental, au même rythme que la progression des volumes d’acides gras hydrogénés et de sucres dans l’alimentation.

Et pourtant le but était d’atteindre une meilleure hygiène alimentaire en réduisant l’apport de corps gras, à n’y rien comprendre !

On a commencé par bannir le beurre au profit de la margarine, un non sens total puisque la margarine contient des acides gras « trans » hautement toxiques apparaissant au cours de l’hydrogénation industrielle des huiles servant à fabriquer ce substitut du beurre. La margarine est dangereuse pour la santé, point ! Ensuite on a banni (au moins en partie) les œufs parce qu’ils sont riches en cholestérol. Comme si manger des œufs était malsain, on ne peut pas trouver aliment aussi complet avec le lait entier puisqu’un œuf apporte tout ce qu’il faut à un embryon constitué d’une seule cellule pour se transformer en poussin et le lait est le seul aliment du nourrisson et il lui permet de survivre et de grandir au moins dans les premiers mois de sa vie. Pour le lait, il faut presque chercher dans un supermarché le lait entier tant il se fait rare en comparaison des mètres de linéaires encombrés par toutes sortes de produits dits lactés et pseudo-lactés qu’il vaut mieux éviter pour préserver sa santé, à part peut-être les yaourts natures préparés avec du lait entier non reconstitué mais c’est devenu introuvable ! Manger ou non des œufs ne modifie en rien le taux de cholestérol sanguin, bon au mauvais, et aucune relation n’a pu être établie avec les maladies cardiovasculaires ( http://jama.jamanetwork.com/article.aspx?articleid=189529 ).

Pour remettre le vulgum pecus dans les « normes » sanguines on lui a aussi conseillé de manger moins gras d’une manière générale. Or manger « moins » gras n’entraine pas de perte de poids ni de réduction des maladies chroniques comme les maladies cardiovasculaires et c’est là où le dogme est le plus insidieusement faux : prétendre que les taux de cholestérol total et de cholestérol LDL sont de bons indicateurs du risque d’infarctus est tout simplement infondé comme cela a été mentionné plus haut. Comme pour appuyer là où ça fait mal une étude parue dans le journal Lancet en 1997 et concernant des personnes âgées de 85 ans et plus a permis d’établir une corrélation parfaite entre le taux de cholestérol total et la morbidité mais pas dans le sens attendu ! Plus ces vieillards présentaient un taux de cholestérol total élevé plus leur espérance de vie était allongée, ce qui d’ailleurs remet sérieusement en cause l’administration de statines (Lancet (1997) 350, 1119-1123) non seulement aux personnes âgées mais peut-être bien aussi aux « moins » âgées …

Puis a émergé on ne sait trop pourquoi la mode des omega-3 qu’une alimentation saine et équilibrée suffit à nous procurer et cette mode a aidé à faire passer l’idée totalement infondée que les acides gras saturés augmentaient le taux de LDL. Or les acides gras saturés ont au contraire tendance à réduire les LDL dits denses en les convertissant en LDL « floconneux » beaucoup moins nocifs que les premiers et également à augmenter le « bon » cholestérol associé aux HDL. Réduire dans son alimentation les acides gras saturés (naturels et non provenant d’une hydrogénation) est donc une absurdité puisqu’une étude portant sur près de trois cent cinquante mille personnes suivies pendant 20 ans n’a jamais pu montrer clairement un risque cardiovasculaire associé (American Journal of Clinical Nutrition, janvier 2010).

Mais bien pire dans le genre, les nutritionnistes le disent et le redisent « manger gras fait grossir », or de nombreuses études démentent ce dogme. Avec un apport calorique équivalent, corps gras + sucres, un régime riche en corps gras provoque une plus importante perte de poids qu’un régime riche en sucres avec un accroissement du « bon » cholestérol, une diminution de la glycémie et une perte de poids abdominal ( American Journal of Clinical Nutrition (2009) 90, 23-32 ) et pourtant ces nutritionnistes pour la plupart experts auto-proclamés car en la matière le charlatanisme est monnaie courante (et trébuchante) soutiennent le contraire.

Enfin, pour faire carrément dans le sordide et le glauque, avec à l’appui toutes ces recommandations infondées et largement démenties a posteriori, les industriels de l’agroalimentaire dégraissent certains aliments mais il y a un gros problème, ces produits industriels deviennent immangeables ! Qu’à cela ne tienne, pour les rendre comestibles (pour rester pudique) il suffit de rajouter du sucre. C’est ainsi qu’on trouve des hamburgers maigres mais bourrés de sirop de sucre de maïs, un produit industriel souvent enrichi en fructose ainsi que divers rehausseurs de goût et autres arômes artificiels. Il n’y a malheureusement pas que les hamburgers. Quand vous vous arrêtez dans un supermarché et que vous voyez une étiquette qui précise que le produit qui vous tente est appauvri en graisses et de qualité diététique, fuyez à grandes enjambées, ce produit contient certainement du sucre, choisissez l’équivalent naturel, s’il existe encore.

Dans cette imposture soi-disant médicalement prouvée, les industriels de l’agroalimentaire sont les grands gagnants et les médecins, les pharmaciens et les nutritionnistes ont par la même occasion créé un formidable fond de commerce en rendant délibérément malade un pourcentage considérable de la population.

Bon réveillon tout de même !

Billet inspiré d’un article paru dans Authority Nutrition (authoritynutrition.com), illustration Wikipedia

Diabète de type II, une lueur d’espoir ?

Aux USA plus de 95 % des diabétiques – près de 8 % de la population – souffrent de diabète de type II, associé au surpoids et à l’obésité. Ce diabète est caractérisé par une insensibilité des cellules à l’insuline, en particulier les cellules hépatiques dont l’un des rôles majeurs est de stocker le glucose sous forme de glycogène afin de réguler le taux de sucre sanguin. Ce n’est pas le seul rôle de l’insuline car cette hormone synthétisée par le pancréas agit aussi directement sur les cellules musculaires et les cellules des tissus adipeux et ça fait beaucoup de cellules puisque les muscles et les tissus adipeux représentent près des deux tiers de l’ensemble des cellules constituant le corps humain.

Contrairement aux idées reçues, les acides gras sont aussi synthétisés par notre organisme justement à partir du glucose et c’est là que l’insuline intervient en déviant une partie du sucre vers la synthèse d’acides gras qui vont être stockés dans les adipocytes pour une dégradation ultérieure en cas de besoin énergétique soudain. En effet, les stocks de glucose sous forme de glycogène ne sont pas illimités et une régulation très fine entre glucose et acides gras pour la fourniture d’énergie (et son stockage) est sous la dépendance de l’insuline.

1118px-Insulin_glucose_metabolism_ZP

 

Or dans le diabète de type II on pourra se piquer avec de l’insuline, rien n’y fera car les hépatocytes sont devenus insensibles à l’insuline toujours normalement produite par le pancréas. Du coup le stockage du glucose sous forme de glycogène se fait mal, dans le foie comme dans les muscles qui stockent aussi du glycogène, la production d’acides gras devient dérégulée, en d’autres termes pour ce qui concerne plus précisément les acides gras l’hépatocyte n’y comprend plus rien et l’organisme tout entier en souffre car il faut bien que ces acides gras quittent le foie sinon il s’asphyxierait et ils sont alors stockés dans les adipocytes avec un développement de l’obésité. Ce que les biologistes tentent de comprendre et éventuellement de traiter c’est la relation de cause à effet initiale. Est-ce le surpoids qui entraine une insensibilisation à l’insuline ou l’inverse ? En réalité tous les regards se tournent vers un mauvais fonctionnement du récepteur de l’insuline qui est situé dans la membrane cellulaire des cellules cibles, foie muscle et tissu adipeux essentiellement. On a une petite idée du fonctionnement de ce récepteur qui est d’une complexité inattendue mais compréhensible dans la mesure où son rôle est d’établir à l’intérieur de la cellule une série de régulations extrêmement fines et également complexes pour le bon fonctionnement du métabolisme.

Si on examine le schéma (Wikipedia) résumant les divers effets de l’insuline, pour tenter de remédier au diabète de type II on n’a pas vraiment le choix puisque le récepteur de l’insuline (Wikipedia) est une vraie boite noire.

IR_Ectodomain_mod3LOH

Les biologistes du Scripps Research Institute à La Jolla en Californie qui travaillent sans relâche sur cette forme de diabète qui affecte près de 350 millions de personnes dans le monde ont finalement opté pour une sorte de retour en arrière afin de trouver de nouveaux médicaments. Pour tester des centaines de milliers de molécules chimiques dans un temps raisonnable on avait et on a toujours tendance à privilégier la cible que l’on veut atteindre en mettant au point un test rapide qui puisse être adapté au screening haute fréquence. C’est ce que l’on fait par exemple avec une activité enzymatique. Mais si on en revient à la bonne vieille observation des effets globaux sur des cellules en culture, par exemple, on a beaucoup plus de chances d’avoir un « hit » c’est-à-dire une réponse positive d’autant plus que le diabète de type II est un dysfonctionnement multifactoriel et non pas limité au seul récepteur de l’insuline. L’astuce a consisté à combiner le screening phénotypique et l’identification de la cible du composé chimique. Pour l’aspect phénotypique, c’est-à-dire la réponse de la cellule, le test consistait à repérer l’abondance des acides gras stockés dans des cellules de tissu adipeux en culture à l’aide d’un test de détection par fluorescence, généralement très facile à mettre en œuvre et rapidement détectable. Une fois le « hit » obtenu, il fallait identifier la cible en analysant cette fois quels sont les enzymes synthétisés en plus (ou moins) grande quantité que dans une cellule témoin. Cette étape est faite en séquençant les ARN messagers transcrits à l’aide de séquenceurs automatiques. Les biologistes du Scripps Institute ont finalement identifié la cible touchée qui est une hydrolase à sérine, un enzyme qui intervient dans l’immobilisation des acides gras dans les adipocytes plutôt que de les laisser retourner vers le foie.

Il fallait finalement vérifier si la molécule ainsi identifiée et active sur un enzyme qui n’avait jamais auparavant été envisagé comme intervenant dans l’obésité et le diabète de type II associé présentait aussi un effet sur des animaux de laboratoire comme par exemple des souris génétiquement modifiées pour être obèses et diabétiques et des souris normales soumises à un régime alimentaire les rendant obèses et diabétiques. Cette molécule s’est avérée active sur les deux lots d’animaux, diminuant significativement la prise de poids et normalisant la biochimie sanguine, glucose, triglycérides et cholestérol redevenus normaux. Un peu les mêmes effets que l’Avandia (rosiglitazone) qui a été retiré du marché en raison des effets secondaires sérieux, mais à une différence notoire près, cette molécule ne provoque pas d’accumulation d’acides gras au niveau du foie comme l’Avandia.

Ces résultats constituent donc une première quant à la démarche scientifique adoptée qui est initiée par des observations phénotypiques, certes sur des cultures de cellules, mais corroborées par l’identification génétique de la cible et enfin une vérification ultime sur des animaux. Cette stratégie est actuellement en cours d’élargissement pour espérer identifier d’autres cibles du diabète de type II mais sans pour autant trouver une explication à la perte de réactivité du récepteur de l’insuline, constat qui reste encore mystérieux. La recherche en biologie et en pharmacologie restera encore quelques années en quête de supplétifs médicamenteux tant que la vraie cause de l’apparition du diabète de type II ne sera pas formellement identifiée. Cette recherche risque d’être longue car il s’agit probablement de la résultante de multiples facteurs dont on méconnait à ce jour les effets cumulatifs sur un système aussi complexe que ce récepteur de l’insuline.

Source : Scripps Research Institute News Letters, illustrations Wikipedia