Le train le plus cher du monde ?

DSCF6237.jpg

Quand je vais à Tokyo et que l’aéronef dans lequel j’ai embarqué atterrit à l’aéroport de Narita j’utilise le train de la ligne privée Kesei pour me rendre à Tokyo dont le centre-ville, en réalité le Palais Impérial (comme Notre-Dame à Paris), se trouve à 60 kilomètres. Le train que j’utilise est la ligne Kesei « limited express » qui dessert une bonne vingtaine de stations (pas toutes celles de la ligne qui en compte je crois me souvenir 42) pour arriver à Ueno parce que je n’aime pas changer à la station Nippori pour emprunter ensuite la Yamanote. D’ailleurs à Ueno il faut sortir de la gare de la Kesei pour se rendre à la station JR, Japan Rail, et j’en profite pour fumer une cigarette assis sur les marches de l’entrée du parc de Ueno où se trouvent de nombreux musées magnifiques. Le prix à payer pour le trajet Narita-Ueno est de 960 yens soit environ 8,50 euros.

Pour effectuer le trajet Orly-Antony soit environ 9 kilomètres il en coûte 9,30 euros. Le petit train « OrlyVal » est automatique, il n’y a pas de conducteur ni de personnel sur le quai et pour un tel kilométrage il aurait fallu payer à ce tarif kilométrique 7000 yens entre l’aéroport de Narita et la station de Ueno … une vraie fortune. Je pense que ce petit train OrlyVal est l’un des plus chers du monde. Mais qu’en est-il au juste ? La société Matra a bénéficié d’un contrat ultra-avantageux conclu avec Aéroports de Paris qui ne sera probablement pas remis en question au cas où cette dernière soit privatisée comme le Gouvernement français a émis l’intention de le faire. Les passagers continueront à se faire copieusement arnaquer. Voilà comment les transports en commun français fonctionnent et fonctionneront encore longtemps : coûteux pour un service laissant parfois à désirer.

« Intelligence artificielle » : un abus de langage !

« Intelligence artificielle » : un abus de langage !

En complément au billet relatif au microbiome et au microbiote intestinal il m’est venu l’idée de disserter brièvement au sujet des avancées récentes de la biologie. En ce qui concerne ce microbiote l’analyse des matières fécales est réalisée de manière entièrement automatique que ce soit au niveau de l’identification des gènes bactériens impliqués dans l’une ou l’autre des voies métaboliques ainsi que l’analyse de ces métabolites. Comme pour le séquençage de l’ADN et aussi des ARN ribosomaux de ces mêmes bactéries il s’agit de robots en charge de préparer les échantillons et de les analyser. Il n’y a dans la pratique plus d’intervention humaine. Les résultats sont ensuite analysés par des ordinateurs puissants dans lesquels ont été introduits des logiciels sophistiqués à même d’analyser les informations fournies par les machines de séquençage et les spectrographes de masse miniaturisés présents dans le système pour identifier les métabolites présents dans ces matières fécales.

Cet équipement peut tout aussi bien être utilisé pour des analyses du sang ou d’autres fluides corporels. Les ordinateurs, outre ceux qui sont dédiés au pilotage des équipements, analysent les données, les « informations » pour être plus précis. En anglais le mot information se traduit par « intelligence » alors que le mot français ou wallon, romand ou québécois intelligence se traduit en anglais par le mot « cleverness ». Le mot anglais intelligence signifie en français stricto sensu « échange d’informations ». Dans le cas d’un système complexe d’analyse d’échantillons biologiques l’ordinateur collecte et analyse les informations et donc les renseignements relatifs à ces échantillons puis réalise lui-même un diagnostic de l’état d’équilibre (ou de déséquilibre) de ces échantillons car il peut être équipé d’un algorithme écrit de telle manière que ce diagnostic soit le plus précis possible. Il va au final imprimer un résultat indiquant au médecin qu’il serait judicieux que le patient X dont les matières fécales et leur microbiote ont conduit aux résultats x mange plus souvent des yaourts ou boive plus (ou moins) de jus d’orange.

Cet ordinateur est-il pour autant intelligent ? En d’autres termes s’agit-il de ce que l’on appelle abusivement de l’ « intelligence artificielle » ? Certainement pas ! La machine – puisqu’on parle aussi de « machine learning » – n’a fait que ce que l’opérateur lui a dit de faire : une simple analyse des informations et des renseignements que lui ont fourni les divers équipements d’analyses biologiques et chimiques et à partir de ces informations des algorithmes ont été utilisés pour rendre un diagnostic. Il en est de même pour de nombreux procédés industriels automatisés. Les ordinateurs ne sont pas « intelligents » ils ne font que traiter des informations ou des renseignements. Utiliser le terme « intelligence artificielle » est tout simplement un abus de langage, une mauvaise traduction de l’anglais vers le français mais aussi d’autres langues d’origine latine comme l’espagnol (inteligencia artificial). Et même un ordinateur jouant au jeu de go ou aux échecs n’est pas intelligent, il ne raisonne pas, il fait ce que l’opérateur lui a dit de faire et les algorithmes traitent les informations ou renseignements que lui envoie le jeu de go ou d’échecs pour continuer à prendre des décisions en suivant ces algorithmes. Et s’il y a eu quelque part l’intervention d’une intelligence c’était celle de l’opérateur informaticien qui a écrit ces algorithmes et les lignes de programmes. Les récents accidents de la circulation provoqués par des automobiles autonomes sont là pour le prouver, les algorithmes introduits dans les systèmes de pilotage de ces véhicules n’ont pas tout prévu et la voiture autonome est nullement « intelligente » comme le prétendent abusivement certaines personnes. Le jour où les avions seront pilotés par des robots je cesserai de voyager en avion …

Le microbiome intestinal : un ami qui nous veut du bien

Capture d’écran 2018-06-19 à 10.56.14.png

Jamais depuis la découverte de la pénicilline par Alexander Fleming les hommes se sont autant intéressés aux produits chimiques créés par les microorganismes et ce n’est que très récemment que nous avons réalisé leur potentiel sur la santé. L’étude de notre « microbiome » est devenu de ce fait l’un des domaines scientifiques le plus d’actualité car il apparaît qu’un grand nombre de conditions pathologiques sont liées à ce microbiome, que ce soient l’obésité, les maladies cardiovasculaires ou encore la dégénérescence cérébrale. Tout semble être sous la dépendance des microorganismes de notre système digestif.

Cette population microbienne qui inclut des bactéries, des levures, des virus et même des parasites est appelée microbiote. Il est constitué de milliers de milliards de microorganismes, plus que l’ensemble de toutes les cellules vivantes de notre corps et au niveau strictement génétique il est d’une complexité des centaines de fois supérieure à celle de notre génome. Chacune de ces populations constitue de véritables usines chimiques qui puisent leurs matières premières dans notre alimentation et fabriquent une multitude d’autres molécules chimiques comme par exemple des vitamines qui, prises ensembles, nous permettent de contrôler notre système immunitaire, notre métabolisme général et les fonctions de notre cerveau. Et comme nous pouvons par notre alimentation influer sur l’équilibre de ces populations microbiennes ce domaine de recherche biologique est une opportunité immense pour la médecine.

Une récente étude dirigée par les Docteurs Tim Spector et Cristina Menni au King’s College à Londres et parue dans la revue scientifique Nature montre clairement la relation entre ce que nous mangeons, comment les bactéries intestinales traitent cette nourriture et quel est le processus d’accumulation des graisses dans notre corps, en particulier dans notre ventre. Cette étude a consisté à collecter plus de 500 échantillons d’excréments de vrais jumeaux pour mesurer la teneur en plus de 800 métabolites que le microbiote produit. Elle a permis d’identifier quelles molécules chimiques favorisent par exemple l’apparition de l’obésité ventrale. Et dans le cas précis de l’obésité nos propres gènes n’interviennent qu’à hauteur de 20 %, le reste étant sous le contrôle des bactéries de notre système digestif. Entre deux vrais jumeaux il a pu être démontré que le transfert d’excréments fécaux pouvait rétablir chez l’un des jumeaux un déséquilibre de son microbiote vers un profil plus satisfaisant. Cette approche répond au doux nom de thérapie fécale …

L’autre approche pour moduler ce microbiote est l’apport dans l’alimentation de « prébiotiques » contenus par exemple dans des aliments fermentés pour « fertiliser » cette flore intestinale. L’article de Spector et Menni introduit le concept de « postbiotiques », les métabolites spécifiquement produits par le microbiote intestinal, un éventail de molécules chimiques qui a un effet direct sur la santé. Une sorte de « carte d’identité » du microbiote, le « métabolome », a ainsi pu être établie sur la base de la composition en ces postbiotiques des matières fécales. Par exemple la supplémentation alimentaire en omega-3 fait apparaître dans les excréments du carbamyl-glutamate qui présente des propriétés anti-inflammatoires, ce qui était encore inconnu il y a quelques mois.

L’étape suivant cette étude consistera à identifier les métabolites permettant d’aider à la régulation de l’apparition par exemple de l’obésité. Du papier hygiénique spécial permettra de prélever un peu de matière fécale qui pourra être analysée afin d’analyser le « métabolome » et déterminer quel régime alimentaire convenable il faudra choisir pour prévenir l’apparition de l’obésité ou d’autres pathologies. D’ors et déjà il est nécessaire d’avoir une alimentation équilibrée qui favorise un microbiote équilibré et ainsi une meilleure santé générale.

Capture d’écran 2018-06-19 à 10.53.33.png

Pour illustrer le vaste programme de recherches qui se présente il suffit d’examiner comment la cafféine est métabolisée dans l’intestin selon la présence ou non de trois gènes bactériens indiqués dans les symboles figurant dans des ellipses allongées. La cafféine peut être transformée en 6 métabolites différents !

Inspiré d’un article paru dans The Conversation, illustrations : The Conversation et Nature.

Note à l’intention des lecteurs de ce blog : pas de billets mercredi 27 et jeudi 28 juin.

La face cachée de la politique impérialiste américaine.

Capture d’écran 2018-06-23 à 21.33.12.png

Dans les dessous de la politique agressive des USA vis-à-vis de la Corée du Nord ce ne sont pas les bombinettes de Kim Jong-un qui effraient les USA et encore moins le Japon ou la Corée du Sud car les systèmes de défense (THAAD) mis en place dans ces deux derniers pays peuvent, du moins jusqu’à un certain point annihiler les fusées nord-coréennes. Depuis plus d’un an le monde entier a assisté à une mise en scène militaire et politique qui n’a de sens que si on se remémore le fait que toutes ces armes de plus en plus sophistiquées nécessitent comme les moulins à vent et les smart-phones, les téléviseurs et les ordinateurs des lanthanides encore appelés des terres rares. Actuellement c’est la Chine qui contrôle le marché mondial des terres rares à plus de 95 % en volume et en valeur ainsi que les marchés du tungstène, du zirconium, du hafnium, du rhénium (voir note en fin de billet) et du molybdène, des métaux également nécessaires à toutes sortes d’application industrielles, militaires mais aussi dans le domaine de l’énergie nucléaire. En effet, les gisements chinois de terres rares, les premiers du monde pour l’instant, estimés à 55 millions de tonnes de minerais resteront encore longtemps les premiers du monde à être exploités.

Récemment, comme je l’ai relaté sur ce blog, le Japon envisage très sérieusement de prélever les dépôts sous-marins riches en ces métaux irremplaçables et il n’y a pas lieu de douter un instant que dans un proche avenir avec le génie incroyable des ingénieurs japonais ce sera chose faite. Les gisements sous-marins identifiés par les Japonais représentent environ 16 millions de tonnes d’équivalents de minerais terrestres seulement dans le site exploré jusqu’à présent …

Là où la Corée du Nord intéresse les USA est la découverte (en 2013) à 150 kilomètres au nord-ouest de Pyongyang d’un gisement de terres rares contenant également tous les métaux mentionnés ci-dessus, gisement d’environ 210 millions de tonnes (pour l’USGS 110 millions de tonnes) d’oxydes exploitables économiquement, situation qui peut potentiellement faire de la Corée du Nord un partenaire commercial incontournable pour tous les pays utilisant ces métaux. Ce gisement nord-coréen double, sur le papier, l’ensemble de toutes les réserves mondiales connues de terres rares !

Les Américains vont probablement faire ami-ami avec la Corée du Nord (DPRK) et mettre massivement la main à la poche pour aider ce pays à développer l’extraction et la purification de ces métaux irremplaçables aujourd’hui. Le souci est que la Chine ne l’entend pas de cette oreille en raison de ses liens étroits avec la DPRK. Il ne s’agit donc plus d’un « conflit » entre les USA et la DPRK mais bien d’un conflit avec la Chine car les enjeux économiques et militaires sont immenses.

Et ceci explique la guerre commerciale décidée par The Donald pour tenter de faire plier la Chine, mais ce sera peine perdue car la Chine est aussi un allié de la pragmatique Russie et place également ses pions en achetant du pétrole et du gaz à l’Iran en payant sa facture en yuans. C’est dire à quel point la situation se complique pour les Etats-Unis et il semble qu’elle échappe au contrôle de la Maison-Blanche.

Venons-en enfin à l’Ukraine et le coup monté de la Place Maiden où des snipers rémunérés par la CIA tiraient aveuglément sur la foule pour accélérer le coup d’Etat afin que ce pays bascule dans le camp occidental, en d’autres termes pour qu’il devienne un vassal de plus des USA. Ce n’est pas parce que l’Ukraine a une frontière commune avec la Russie et qu’en Crimée, depuis toujours, il existe une immense base militaire russe à Sebastopol. La vraie raison pour laquelle les USA ont organisé ce coup c’est tout simplement pour priver la Russie de ses approvisionnements essentiels en titane, zirconium et hafnium provenant d’Ukraine pas seulement pour développer et moderniser son armement mais aussi pour son programme d’énergie nucléaire civile qui est probablement le plus à la pointe dans le monde …

Comme quoi ce que racontent les médias « main-stream » doit être vraiment pris avec une infinie précaution.

Inspiré d’un article paru sur le site ZeroHedge écrit par Pepe Escobar et originellement publié sur le site Asia Times

Notes. 1. La France fut le premier pays au monde à maîtriser la purification industrielle des terres rares, activité qui a été reprise depuis la disparition de Rhône-Poulenc par la société belge Solvay, restée depuis leader mondial dans ce domaine. Les premiers gisements de terres rares ont été exploités au Brésil et en Inde au début des années 1940. Les applications étaient « rares » et la plus connue était celle du cérium dans les pierres à briquet. Puis l’Afrique du Sud se positionna dans ce créneau et ensuite la Californie devint le leader mondial des terres rares dont on ne soupçonnait alors pas toutes les applications futures dans les années 1970. Le gisement massif de Moutain Pass fut par la suite abandonné pour des raisons liées à la préservation de l’environnement. Ce fut alors l’apparition de la suprématie de la Chine avec les immenses gisements de Mongolie Intérieure. La flambée des prix des terres rares liée à la croissance astronomique des nouvelles technologies à la fin des années 2000 réactiva la recherche de nouveaux gisements exploitables du Malawi au Canada en passant par Madagascar et le Groenland.

À ce jour des mines ont été remises en exploitation tant en Californie (Mountain Pass) qu’en Australie, en Malaisie et en Afrique du Sud. La pression de la Chine sur les prix a disparu et par exemple l’une des terres rares les plus utilisées est le cérium sous forme d’oxyde pour polir les écrans de télévision, les lentilles et les pare-brises des voitures. Le kilo d’oxyde de cérium est passé de 118 dollars en septembre 2011 à 8,5 dollars aujourd’hui. Pour l’anecdote à propos de l’oxyde de cérium le polissage des pare-brises des voitures fait que les insectes ne s’accrochent plus à ces pare-brises, les micro-aspérités du verre ayant été éliminées, ce qui a conduit les écologistes à clamer que les insectes avaient – surtout en Europe – tous disparu puisqu’après un parcours routier le pare-brise était toujours aussi propre !

Le cas de l’europium est emblématique. Ce métal est utilisé en imagerie médicale et dans les industries nucléaires civiles et pour certains armements. Un kilo d’europium valait 403 dollars en 2009. Son prix a atteint 4900 dollars fin 2011 et aujourd’hui il est négocié à 1110 dollars sur le marché export alors que son prix n’est que de 630 dollars pour l’industrie chinoise domestique (source : Mining.com ).

2. Le zirconium est utilisé dans des alliages spéciaux à travers lesquels les neutrons passent librement. Ces alliages sont utilisés pour fabriquer les gaines de combustible des réacteurs nucléaires. Le hafnium est utilisé dans de nombreux circuits intégrés. Ce métal a détrôné l’argent pour la fabrication des barres de contrôle des réacteurs nucléaires en raison de sa très large section de capture des neutrons ( exprimée en barns). Enfin le rhénium est aussi un métal stratégique important car il entre dans la composition de super-alliages résistants aux hautes températures. Il est majoritairement utilisé dans les moteurs d’avions et les turbines à gaz dans des alliages spéciaux contenant également du tungstène et du ruthénium.

Dans le domaine du « bio » tout est permis y compris – et surtout – les grosses arnaques

 

 

 

Comme la plupart des fruits la perte d’eau et l’entrée d’oxygène dans la chair de ces derniers accélèrent leur mûrissement et leur perte de qualités organoleptiques et gustatives. Il existe depuis longtemps une parade avec les agrumes consistant à les recouvrir d’une cire minérale qui imperméabilise la peau évitant alors ce phénomène d’échanges entre l’intérieur du fruit et l’extérieur. Ainsi les agrumes traités se conserve mieux. Il s’agit d’un procédé largement utilisé par les producteurs mais il y a un gros hic qui ne plaisait pas aux écolos : appliquer le même traitement aux avocats est non conforme à ces activistes qui ne veulent pas entendre parler de tous les produits dérivés du pétrole. Mais au fait l’allergie à l’uranium et l’allergie au pétrole ne sont toujours pas des maladies répertoriées par l’OMS alors qu’elles concernent un nombre toujours croissant d’individus, mais je m’égare …

Revenons donc aux avocats. Le dénommé James Rogers, CEO de la petite entreprise Apeel Science, sise à Santa Barbara en Californie a trouvé une alternative à la cire issue du pétrole pour protéger les avocats. Il a organisé la récupération de tout ce que les supermarchés rejetaient comme fruits et légumes invendables car trop mûrs voire carrément pourris. Cette matière première gratuite lui a permis d’extraire – on ne sait pas trop avec quels solvants – des graisses garanties d’origine végétale, donc naturelles c’est-à-dire « bio », pour recouvrir la peau des avocats. Il fallait y penser parce qu’au cas où vous ayez une grosse faim et que vous décidiez de manger la peau de l’avocat (pas la personne qui défend vos intérêts mais le fruit) elle n’est pas recouverte d’un vilain produit d’origine pétrolière, ouf !

Résultat de l’opération : au lieu de devenir immangeables après 4 jours les avocats sont encore consommables pendant deux jours supplémentaires, on n’arrête plus le progrès dans l’arnaque organisée et ce qui est invraisemblable est que cette société a été financée par la Fondation Bill&Melinda Gates. Comme quoi les grands esprits se rencontrent toujours quand il s’agit de faire du business avec du vent …

Source et illustration : The Guardian. Allez aussi vous promener sur ce site qui concerne le mûrissement des avocats, c’est instructif : calavo.com/storepdfs/ProRipeVIP-Brochure.pdf

Il y a 30 ans le réchauffement « gorebal » d’origine humaine du climat était « officialisé ».

Capture d’écran 2018-06-19 à 20.08.04.png

Le 23 juin 1988 James Hansen déclara devant le Sénat américain que le réchauffement du climat était provoqué sans aucun doute – il en était lui-même convaincu – par l’activité humaine et cette année 1988 allait être l’année la plus chaude jamais répertoriée dans l’histoire de l’humanité ! Preuves à l’appui : le graphique ci-dessus qui fut présenté aux Sénateurs médusés. Ce que Hansen exposa aux Sénateurs figure dans le document suivant (traduit par mes soins, voir note en fin de billet) qui décrit le graphique qu’il présenta :

« Forcing radiatif dans les scénarios A, B et C

4.1. Gaz atmosphériques mineurs

Nous définissons trois scénarios en ce qui concerne les gaz présents à l’état de trace (dans l’atmosphère) pour présenter une indication dépendante de l’évolution de la teneur en ces gaz pour prévoir l’évolution du climat. Le scénario A prend en compte le fait que ces gaz continueront à suivre indéfiniment l’évolution qui a été typiquement observée durant les années 1970 et 1980. L’augmentation annuelle moyenne d’environ 1,5 % de ces émissions conduira à un effet de serre qui augmentera de manière exponentielle. Le scénario B tient compte d’une stabilisation de ces émissions de gaz ce qui aura pour conséquence de stabiliser l’effet de serre sur le climat. Le scénario C réduit drastiquement ces émissions de gaz entre les années 1990 et 2000 de telle sorte que le forcing sur le climat cessera après les années 2000. »

Voici ce qui a été observé depuis lors et superposé au fameux graphique de Hansen présenté aux Sénateurs :

Capture d’écran 2018-06-19 à 20.11.58.png

Si on ne tient pas compte des deux épisodes El Nino de 1998 et de 2016 la température globale moyenne de la Terre, une notion sujette à caution, n’a pas évolué de manière significative, au plus d’environ 0,2 degrés. Mais compte tenu de la manipulation complexe des données brutes et de l’artifice de calcul résultant en une moyenne globale il est préférable de rester prudent quant à ce genre de résultat. Bref, Hansen avait tout faux mais cela n’empêcha pas Al Gore de réaliser à grand frais son film « An Inconvenient Truth » (2006) qui n’eut d’autre but que de conditionner définitivement les populations pour qu’elles deviennent franchement consentantes en ouvrant largement leur porte-monnaie pour sauver le climat. Merci Monsieur Hansen.

Source et illustrations : WUWT (whatsupwiththat.com)

Capture d’écran 2018-06-22 à 12.37.15.png

Note. Le paragraphe en italiques est tiré de la publication de James Hansen dans le Journal of Geophysical Research, Vol. 93, NO. D8, pages 9341-9364, qui parut le 20 août 1988, le manuscrit ayant été soumis le 25 janvier 1988. Il s’agissait d’une modélisation de l’influence de la teneur en CO2 sur la température terrestre inspirée des études réalisées sous la direction de Hansen sur l’atmosphère de Vénus (96 % de CO2 et 4 % d’azote) au NASA Goddard Space Flight Center situé à New-York. Le résumé (capture d’écran ci-dessus) prédisait un accroissement des températures selon le scénario A de l’ordre de 2 à 4 degrés dès les années 2000. Il se trouve que ce modèle et bien d’autres par la suite n’a jamais été vérifié par les observations puisque les températures ont cessé d’augmenter justement à partir du début des années 2000 alors que la teneur en CO2 atmosphérique n’a pas cessé d’augmenter. Il s’agit donc de l’une des plus grossières impostures scientifiques de cette fin de XXe siècle.

L’OMS doit occuper ses fonctionnaires en définissant des nouvelles maladies : mort de rire !

Capture d’écran 2018-06-20 à 15.34.34.png

L’OMS, organisme onusien bien connu pour ses prises de position au sujet du glyphosate s’intéresse aussi aux nouvelles maladies car il faut bien que ses fonctionnaires grassement payés avec les impôts de tous les contribuables du monde entier justifient leurs salaire et leur passeport diplomatique. À force de se gratter le sommet du crâne ils ont fini par statuer sur deux déviances modernes qui n’existaient pas il y a encore 30 ans : le transexualisme et l’addiction aux jeux vidéo.

Pour le transexualisme qui était jusqu’alors considéré comme une maladie mentale (personnellement je suis tout à fait d’accord avec ce classement) une telle classification a été considérée par l’OMS comme stigmatisante selon Lale Lay, personnalité éminente en charge du département de santé reproductive dans cet organisme. Selon cette personne dont je ne me suis pas donné la peine d’établir le sexe « réduire cette stigmatisation contribuerait à une meilleurs acceptation de ces personnes (transexuelles) par la société et même à augmenter leur accès aux soins de santé » (sic). Il faut rappeler ici que la France, le premier pays au monde à ce sujet, avait supprimé le transexualisme de la liste des maladies considérées comme relevant de la psychiatrie.

Et comme il ne fallait pas frustrer la corporation des psychiatres une nouvelle maladie a été ajoutée à leur gagne-pain : l’addiction aux jeux vidéo, ben voyons ! Enfin l’OMS s’est aussi penché ardemment sur la médecine traditionnelle considérant que des dizaines de millions de personnes dans le monde ont recours aux cornes de rhinocéros pour soigner les troubles de l’érection et à la poudre d’ailerons de requin séchés pour soigner les troubles digestifs. Toutes les recettes des sorciers d’Afrique et des boutiquiers chinois et indiens seront-elles bientôt en vente dans les pharmacies des quartiers chics de Genève, ville où siège l’OMS ?

Source : AFP

Des méthaniers géants pour répondre au boom du commerce du LNG

Des méthaniers géants pour répondre au boom du commerce du LNG

Tenir mon blog m’oblige à trouver chaque jour un sujet susceptible d’intéresser mes lecteurs et j’avoue que je découvre aussi des informations que je ne soupçonnais pas en passant en revue quotidiennement une quarantaine de sites sur internet qui ne sont pas des sources d’information contrôlées par de grands groupes financiers voire par la CIA. J’ai donc cru bon de traduire pour mes lecteurs cet article de MC01, un fréquent collaborateur du site Wolf Street. Comme moi-même vous apprendrez ce que j’ignorais jusqu’à la lecture de cet article. Bonne lecture.

Capture d’écran 2018-06-19 à 21.18.42.png

Le design, les technologies et les challenges pour les navires de transport du gaz naturel liquéfié.

Les exportations de gaz naturel liquéfié (LNG) ont augmenté de 61 % en dix ans, de 160 millions de tonnes en 2007 à 258 millions en 2016. Le LNG est un mélange de deux gaz naturels, principalement du méthane avec des traces d’éthane, qui a été purifié et liquéfié à la température de – 162°C pour rendre son transport plus facile. Le gaz liquéfié occupe un volume 500 fois inférieur à sa forme gazeuse. Le traitement préalable du gaz naturel consiste à éliminer certains polluants comme des métaux lourds, des mercaptans et des oxydes de soufre.

Le LNG fut d’abord produit au début de la deuxième guerre mondiale aux USA avec les premières unités de liquéfaction opérationnelles en 1940. Après une explosion catastrophique à Cleveland en 1944 la production de LNG fut brutalement abandonnée mais les recherches ne furent pas abandonnées pour autant car il existait toujours un marché pour le transport par rail du gaz dans des régions où il n’existait pas de réseaux de gazoducs sur de longues distances. En 1959 le premier bateau de transport de LNG, le « Methane Pioneer », vogua d’une usine de liquéfaction de la société Conoco en Louisiane à l’île Canvey en Grande-Bretagne pour approvisionner la société Southern Gas Board (maintenant British Gas). Il s’agissait d’un cargo de ravitaillement propulsé par des moteurs diesel développé au cours de la guerre du type C1M cargo qui avait été équipé pour ce type de transport très particulier comme nous allons le découvrir. Dans le même temps la société Shell découvrit d’énormes quantités de gaz au large de la Groningue ce qui dynamisa les forages en Mer du Nord tuant de ce fait les importations coûteuses de LNG depuis les USA vers l’Europe.

À peu près au même moment « Gaz de France » étudia la potentialité d’importer du gaz naturel sous forme liquéfiée d’Algérie mais la demande domestique française était faible et le gaz de Lacq fut découvert ce qui fit que peu d’études furent entreprises jusqu’aux années 1970 mais le peu qui fut entrepris servit par la suite. Les bateaux transporteurs de LNG ont vécu une renaissance dans les années 1970 quand il apparut que le Japon, en pleine expansion économique, était un marché potentiel important. Un terminal de liquéfaction fut construit dans le Cook Inlet en Alaska et l’Administration américaine incita la construction de bateaux spéciaux pour le transport de gaz liquéfié (Jones Act). Cependant les deux premiers bateaux, le MV Arctic Tokyo et le MV Polar Alaska, furent construits en Norvège, profitant des nouvelles installations de transfert à bord du LNG développées par la société Moss Maritime de Norvège.

Initialement les cargos recevaient en cale des récipients de forme ellipsoïde recouverts d’épaisses couches d’isolant. Ces réservoirs étaient relativement économiques mais ils souffraient de défauts mécaniques provoqués par les phases de réchauffement au cours du déchargement et de refroidissement lors du remplissage subséquent. La société Moss développa des réservoirs sphériques renforcés au niveau de leur diamètre, un anneau équatorial directement relié à la coque du bateau pour répartir les charges et les rendre extrêmement résistants aux chocs. Ces réservoirs étaient conçus pour résister à ces phases critiques de réchauffement et de refroidissement car ils pouvaient se dilater et se recontracter librement à l’intérieur de cet anneau, les couches d’isolant thermique servant de coussins amortisseurs? Toutes les canalisations de connexion se trouvaient au sommet de la structure et elles-mêmes connectées au reste du bateau avec des joints souples. Au cours des années suivantes la société Moss améliora l’isolation thermique et mit au point des asperseurs de gaz liquide pour réduire les écarts de température afin d’éviter le plus possible les problèmes de « boiloff » (voir note en fin de billet) et ces bateaux spéciaux dominèrent le marché au cours des années 1980 et 1990 (illustration Moss Maritime) :

Capture d’écran 2018-06-19 à 21.58.23.png

Il restait tout de même un gros problème avec ces bateaux : l’espace de la cale perdu qui de ce fait limitait critiquement la capacité de transport de ces bateaux. Pour remédier à cet inconvénient la société japonaise IHI mit en chantier en 2014 un bateau équipé de réservoirs dits prismatiques après des années d’études et d’essais. Ces réservoirs occupent beaucoup plus d’espace de cale, sont plus résistants aux écarts de température et amortissent le phénomène dit de ballotement (sloshing) apparaissant lors de mers grosses : en cas de gros temps le LNG a tendance à être brassé dans les réservoirs ce qui induit d’énormes contraintes mécaniques aux parois du réservoir. Il y eut de terribles accidents en raison de ce phénomène et c’est toujours un danger redouté par les équipages en particulier lorsqu’il faut traverser l’Océan Indien réputé pour ses gros coups de tabac en période de mousson.

Le paramètre défavorable des réservoirs prismatiques est leur coût très élevé mais cette technologie a trouvé un marché de niche avec des bateaux équipés d’unités de liquéfaction à bord qui opèrent sur les sites des champs gaziers. Cependant les compagnies de transport dédaignent cette technologie car elle est trop coûteuse. À peu près au moment où les compagnies américaines développaient l’acheminement de gaz naturel liquéfié vers le Japon Gaz de France avait achevé le terminal de regazification de Fos-Tonkin près de Marseille qui entra en service en 1972. Si la nationalisation de l’industrie gazière algérienne ralentit le processus le gaz naturel devint un gros business en Europe et les petits méthaniers développés après les années 1950 devinrent incontournables. Il s’agissait d’une amélioration des premiers bateaux conçus au cours de la deuxième guerre mondiale munis de réservoirs dits à membranes. Plutôt que de construire des réservoirs en acier ou aluminium épais ces réservoirs étaient constitués d’alternances de métaux et de couches isolantes relativement souples. Cette technologie a été reprise depuis et les réservoirs modernes sont constitués d’une première couche d’acier SAE 304 appelée aussi Invar (alliage nickel-fer) en contact direct avec le LNG isolée par une première couche d’isolant, le tout étant contenu dans un autre réservoir en acier plus épais dit structurel lui-même isolé par une autre couche d’isolant. Les isolants ont aussi traversé des étapes successives de progrès techniques. Ils sont aujourd’hui confectionnés en briques de perlite. Ces couches d’isolant sont en permanence baignés d’azote gazeux sous légère pression et cet azote est analysé en temps réel afin de détecter toute trace suspecte de méthane qui révélerait une fuite. Les deux société françaises à l’origine de la conception de ces réservoirs, Gaz Transport et Technigaz fusionnèrent en 1994 et sont maintenant connues sous le nom de GTT.

Les réservoirs membranaires qui occupent beaucoup plus d’espace de soute ont relégué les méthaniers type Moss au second plan. Ci-dessous un méthanier à réservoirs membranaires de nouvelle génération (crédit Dynagas) :

Capture d’écran 2018-06-19 à 22.27.30.png

Qatargas, la plus grande compagnie de LNG au monde et propriétaire de la plus importante flotte de méthaniers a aussi apporté d’immenses changements dans cette industrie particulière énumérés ci-après. Les plus gros transporteurs de LNG, de la classe des Q-Flex, entrés en service en 2007, ont une capacité nominale de 210000 m3 soit 50 % de plus que les méthaniers précédemment construits. Les Q-Max construits après 2008 ont une capacité de 266000 m3, une longueur de 345 mètres et une largeur de 53,8 mètres. Ce sont les plus grands bateaux pouvant mouiller le long des terminaux qataris tout aussi gigantesques.

Qatargas a passé commande pour 14 Q-Max et 31 Q-Flex à ce jour. Ces énormes commandes ont bénéficié aux « Big Three » coréens, Daewoo, Hyundai et Samsung. Qatargas, propriétaire du design des bateaux a passé commande à part égale entre ces trois compagnies. Les chantiers japonais comme Imabari et Japan Marine United dominent le marché pour les méthaniers plus petits et les FPSO (Floating Production Storage and Offloading) mouillant sur les sites d’extraction du LNG. La situation pour les chantiers navals européens est devenue critique alors qu’ils dominaient ce marché il y a encore 30 ans.

Qatargas a aussi promu la reliquéfaction à bord. Les Q-Flex et Q-Max sont équipés de cet équipement, nous y reviendrons plus bas. Qatargas a aussi privilégié les moteurs de propulsion diesel deux-temps au détriment des turbines à gaz, deux aspects qui sont en fait liés comme nous le verrons plus loin. Si les techniques d’isolation ont fait d’énormes progrès ces 50 dernières années il n’en reste pas moins que le gaz liquéfié est en permanente ébullition et les méthaniers modernes perdent quotidiennement entre 0,1 et 0,25 % de leur cargaison, une perte due au vieillissement de l’isolation et aux conditions de navigation. Le Methane Pioneer laissait tout simplement le méthane s’échapper dans l’atmosphère quand le réservoir atteignait une pression critique. Mais les constructeurs et les propriétaires affréteurs des méthaniers se sont vite préoccupé de ce problème économiquement désastreux tout simplement en utilisant ce gaz pour propulser le bateau. En remplaçant les moteurs par des turbines qui acceptent n’importe quel combustible. Le design des tubulures fut l’un des premiers problèmes à résoudre car le gaz sortant des réservoirs se trouve à une température largement en dessous de zéro et doit être d’abord réchauffé à la température de 20 °C et il a fallu des années pour maîtriser l’ensemble de cette technologie. Aujourd’hui la technologie a atteint l’excellence avec des coûts de maintenance bien inférieurs aux moteurs diesel deux-temps.

Mais il y a encore des inconvénients. D’abord les turbines tournent à plusieurs milliers de tours par minute alors que les moteurs de propulsion tournent au plus à 300 tours/minute ce qui signifie qu’il faut des réducteurs de vitesse d’un coût extrêmement élevé pour actionner les hélices. Des turbines à gaz pour alimenter des alternateurs qui eux-mêmes font fonctionner des moteurs de propulsion électriques constituent une technologie très coûteuse qui est réservée aux marines militaires et n’est pas adaptée à la taille des grands méthaniers. De plus il existe sur le marché du travail très peu de techniciens capables de faire fonctionner de tels équipements sophistiqués. Enfin les turbines à gaz ont un rendement légèrement inférieurs à celui des moteurs diesel deux-temps, 2 à 3 % de moins, mais c’est suffisant pour décourager les affréteurs à une époque où les marges sont épaisses comme du papier à cigarettes !

L’idée de faire fonctionner les moteurs diesel deux-temps en injectant du méthane dans le fuel lourd ne date pas d’aujourd’hui puisque dès 1973 le méthanier MV Venator dédié à l’exportation de LNG depuis l’Alaska vers le Japon fut équipé de deux moteurs diesel acceptant du méthane mélangé au fuel lourd construits par la société suisse Sulzer qui fut rachetée en 1996 par le finlandais Wärtsilä. Cette technologie a depuis été améliorée mais n’a toujours pas atteint sa maturité. Des firmes comme Hyundai Heavy Industries et Doosan en Corée, Daimler et MAN en Allemagne et Mistubishi Heavy Industries et Diesel United au Japon construisent de tels moteurs et les perfectionnent. Les Q-Flex et Q-Max ont résolu ce problème en disposant à bord d’une unité de reliquéfaction du gaz qui s’évapore à – 162 °C en le réinjectant dans les réservoir par pulvérisation pour maintenir l’ensemble à cette température. Ceci confirme le fait qu’une utilisation du méthane pour la propulsion deviendra rapidement abandonnée.

Notes additionnelles. 1. La technologie de liquéfaction utilisée dans le monde est entièrement originaire des USA. Air Products & Chemicals (ACPI) et ConocoPhillips (COP) ont construit 96 % des unités de liquéfaction existant dans le monde. COP a accepté des transferts de technologie à des pays tiers mais ACPI construit entièrement les unités vendues. Le procédé de liquéfaction APC C3MR le plus utilisé dans le monde a une efficacité énergétique de 240 W par kilo de LNG produit. Cette efficacité dépend largement du moteur produisant l’énergie pour l’ensemble du process. Les méthaniers de Qatargas utilisent l’énergie électrique disponible sur l’embarcation. Par contre à terre les unités de liquéfaction sont équipées de turbines à gaz lourdes à haute température fabriquées par Rolls-Royce Trent. À ce sujet l’activité industrielle de la société Rolls-Royce comprend les moteurs d’avions et les turbines à gaz d’une technologie directement dérivée des moteurs d’avion. La fiabilité de ces moteurs a fait la réputation de R-R puisque certains moteurs ont fonctionné plus de 100000 heures sans aucun incident. La Corée, en particuliers les Big Three sont maintenant positionnés sur ce marché.

2. Pour ce qui concerne les chantiers navals européens ces derniers restent encore actifs sur des marchés de niche si on les compare aux Coréens et aux Japonais. Une société comme Fiantieri (Italie), le plus important constructeur de bateaux de croisière du monde appartient au gouvernement italien et ne survit qu’avec de généreuses subventions étatiques. La construction de ferrys est un marché beaucoup important que celui des méthaniers, il suffit de penser à l’Indonésie, la Malaisie ou aux Philippines et leurs milliers de bateaux.

3. Pour terminer ce panorama d’une activité commerciale peu connue les consignes de sécurité sur un méthanier moderne sont infiniment plus strictes que celles qui doivent être observées dans un aéronef commercial malgré le fait que les risques d’explosion sont presque nuls en raison de la très basse température du gaz liquéfié.

Note à propos du « boiloff » . Prenez une canette de bière, si possible en métal, et laissez la tomber à terre. Quand vous allez l’ouvrir de la mousse sortira intempestivement. Avec le méthane liquide quand il est trop agité dans le réservoir l’ensemble de la masse liquide toujours à la température de – 162 °C a tendance à entrer en ébullition. Et c’est catastrophique car ce phénomène est hors de contrôle.

L’uranium de l’eau de mer : c’est faisable

Capture d’écran 2018-06-15 à 19.56.25.png

Il y a eu lors d’une coopération entre la France et le Japon une tentative de récupération de l’uranium présent dans l’eau de mer qui s’est soldée par un semi-échec car les quantités de ce métal sous forme ionisée étaient très faibles. Cette fois-ci c’est le laboratoire national du Nord-Ouest (PNNL) aux USA qui a enfin réussi à piéger cet uranium dans les « filets » ioniques d’un tissu tout à fait courant mais modifié par voie chimique sur les polymères duquel a été greffée une molécule qui chélate spécifiquement l’ion uranium. Un tout petit aparté pour expliquer brièvement comme les choses se passent : les agents chélatants sont des molécules parfois complexes dont la structure se présente sous forme d’une cage ionisée également et il faut que sa dimension soit adaptée à l’atome ciblé. Après un peu de cogitation et comme l’uranium est l’atome le plus gros et le plus lourd naturellement présent sur la planète il a fallu quelques années pour obtenir un tel agent chélatant qui puisse être aisément greffé sur des fibres textiles.

En laissant durant quelques mois un kilo de fibres modifiées chimiquement baigner dans de l’eau de mer circulant à l’aide d’une petite pompe, les ingénieurs chimistes du PNNL ont réussi à récupérer 5 grammes d’uranium après l’avoir détaché de sa « cage chimique » spécifique par un traitement acide doux. Le textile a été récupéré en bon état et peut être utilisé à nouveau. Cinq grammes ce n’est pas beaucoup, certes, mais la quantité d’eau de mer est inépuisable et celle d’uranium non plus même si la teneur en uranium de l’eau de mer est ridiculement faible, de l’ordre de 3 parties par milliard (3 milligrammes par mètre-cube) alors qu’il y a en moyenne dans la croute terrestre 2,7 ppm d’uranium – 1000 fois plus que dans l’eau de mer – et que dans certains gisements les teneurs atteignent plus de 1 %.

Il suffira dans un proche avenir réaliser une telle extraction spécifique à grande échelle pour obtenir d’une manière très économique, presque gratuite si l’on peut dire, de l’uranium sans courir le risque d’appauvrir le gisement océanique qui est virtuellement infini.

Actuellement pour un coût global de 130 dollars le kg de « yellow cake » il y a des gisement exploitables contenant au bas mot 3,7 millions de tonnes d’uranium et les océans, après avoir prouvé la validité de la technique développée au PNNL, renferment 4 milliards de tonnes d’uranium ! Autant dire que l’énergie nucléaire civile a un bel avenir devant elle avec un combustible ayant un prix dérisoire. Le Japon, la Chine et l’Arabie Saoudite qui veut trouver des alternatives au pétrole pour dessaler l’eau de mer sont aussi sur ce coup fantastiquement économique.

Source et illustration (yellow cake – oxyde d’uranium – provenant de l’eau de mer) : LCW Supercritical Technologies (lcwsupercritical.com). La fibre modifiée a été développée par l’entreprise basée à Seattle pour initialement piéger du vanadium dans les eaux de rivière.