Les dangers de l’ « internet des objets »

Capture d’écran 2020-01-08 à 11.32.58.png

Après des années d’annonces publicitaires, il semble que l’Internet des Objets (ou «IoT», internet of things)) tant annoncé pour ceux qui sont au courant (ce que je ne suis nullement) ait enfin envahi la maison. La machine à laver et le chauffage peuvent être contrôlés à partir de votre smartphone, les sonnettes de la porte d’entrée avec caméra apprennent à reconnaître les visiteurs réguliers et à détecter des visiteurs inconnus donc potentiellement suspects, nous sommes de plus en plus nombreux à moderniser nos maisons avec des appareils de ce type compatibles avec Internet. Mais avons-nous oublié de penser à la cybersécurité de cette nouvelle technologie?

Un expert n’est pas convaincu que nous y ayons vraiment réfléchi. Mikko Hypponen est directeur de recherche pour la société finlandaise de sécurité numérique F-Secure. Ayant observé l’augmentation des appareils IoT, il a inventé une nouvelle maxime pour alerter les consommateurs sur leurs dangers potentiels : « s’il est intelligent, dit-il, il est également vulnérable. C’est une règle pessimiste mais c’est vrai : plus nous ajoutons de connectivité à nos maisons, plus nous créons de vulnérabilité. »

Les grands risques pour les appareils IoT se répartissent en deux grandes catégories, explique-t-il, tous deux étant déjà exploités par des cybercriminels. La première vulnérabilité, la plus évidente, est que les appareils intelligents peuvent servir d’accès dérobé à nos réseaux domestiques, permettant aux pirates d’accéder plus facilement à nos ordinateurs portables et smartphones et à toutes les informations précieuses (des mots de passe aux cartes de crédit) que cela implique. Dans les cercles de cybersécurité, les exemples deviennent déjà légendaires: comme le casino de Las Vegas qui aurait vu sa base de données high-rollers volée par des pirates qui sont entrés dans le réseau via un logiciel malveillant.

Les appareils intelligents – comme les réfrigérateurs et les caméras des portes d’entrée – sont généralement le maillon le plus faible de votre réseau domestique. C’est un problème aggravé par le fait que les acheteurs sont rarement encouragés à prendre les précautions de sécurité les plus élémentaires, telles que la modification du mot de passe de l’appareil par rapport à son paramètre par défaut. Avec d’autres nouvelles technologies (en particulier les crypto-monnaies comme Bitcoin qui permettent des paiements indécryptables), cela a conduit à une augmentation des attaques de ransomwares (logiciels de demande de rançon) avec lesquels les pirates rendent les ordinateurs inutiles jusqu’à ce que l’utilisateur leur envoie une coquette somme d’argent. L’un des virus de ce type le plus connu était le malware Wannacry, qui a infecté les ordinateurs du NHS (sécurité sociale britannique) en 2017 apparemment à la demande de la Corée du Nord.

Alors, que peuvent faire les propriétaires de ces IoT pour protéger leurs propres appareils et plus largement leurs réseaux domestiques contre les attaques ? Selon F-Secure, une étape évidente consiste à s’assurer que votre réseau WiFi est aussi sécurisé que possible. Cela signifie changer le nom du routeur ce qui rend difficile pour les pirates informatiques d’identifier sa marque et son modèle – et, à partir de là, ses failles de sécurité – en utilisant le cryptage WPA2 et en vous assurant d’utiliser un mot de passe sécurisé. En ce qui concerne les appareils IoT eux-mêmes, les propriétaires doivent veiller à modifier le mot de passe par défaut et à envisager de désactiver certaines fonctionnalités – comme Universal Plug and Play – qui permettent aux pirates d’exploiter plus facilement leurs vulnérabilités.

Alors que les attaques de ransomwares sont en augmentation, Hypponen s’intéresse également à une nouvelle forme de cybercriminalité qui cible la prochaine vague d’appareils IoT plus petits – comme les grille-pain et les sèche-cheveux – qui se connectent directement à Internet en utilisant la 5G. Qui a vraiment besoin d’un grille-pain compatible Internet ? Eh bien, personne, admet Hypponen. Pourtant, il prédit simultanément que, comme la connectivité Internet devient de moins en moins chère, il sera bientôt impossible d’acheter des grille-pain qui ne se connectent pas à Internet.

Comment et pourquoi cela sera-t-il possible ? La raison en est que les grille-pain ne vont pas se connecter pour fournir de nouvelles fonctionnalités au client, ils fourniront plutôt aux fabricants des données en temps réel sur la façon exacte dont l’appareil est utilisé. Ce type de données de masse est extrêmement précieux pour les fabricants car ils peuvent ainsi améliorer continuellement leurs produits, mais il rend également les appareils vulnérables aux cyberattaques, en particulier étant donné que ces fabricants n’utilisent que le cryptage le plus élémentaire et ne permettent pas toujours aux utilisateurs de modifier les paramètres de leurs IoT. Au cours de la l’année 2019 il a eu plus de cyberattaques sur les appareils IoT que sur les ordinateurs Windows.

Étant donné que ces appareils ne sont généralement pas connectés à votre réseau domestique – ils accèdent directement à Internet via de minuscules puces 5G – le but n’est pas d’obtenir vos données personnelles. Les pirates informatiques veulent recruter vos appareils dans leurs «botnets», de vastes essaims d’adresses informatiques captives qui peuvent être utilisées pour attaquer les serveurs Internet en envoyant un flot écrasant de données absurdes. En 2016, des millions de ces appareils à travers le monde ont été récoltés dans le botnet Mirai, qui a réussi à supprimer des sites Web de Twitter à la BBC et de Spotify à FoxNews, l’une des plus grandes cyber-attaques de l’histoire récente. Le plus surprenant a été révélé par une étude de la firme néerlandaise de sécurité numérique Gemalto : moins de la moitié des entreprises sont en mesure d’identifier quand un élément de leurs appareils IoT a été piraté.

La cyber-sécurité des consommateurs ne fait pas partie des régulations gouvernementales et n’est pas non plus une préoccupation des industriels. Si vous achetez une machine à laver, vous pouvez être certain qu’elle ne prendra pas feu ou ne vous donnera pas de décharge électrique pendant que vous l’utiliserez, cela fait partie du cahier des charges de cet équipement domestique. Cepedant il n’existe aucune réglementation sur la question de savoir si cette machine à laver « connectée » pourrait révéler votre mot de passe WiFi aux pirates. Cela pourrait changer : le gouvernement britannique a commencé à consulter des experts de l’industrie sur la façon de développer des garanties appropriées, tandis que la Finlande vient de devenir le premier pays à introduire un label de qualité soutenu par le gouvernement pour les produits qui répondent aux normes de base de cybersécurité. Avec environ un quart des foyers britanniques utilisant déjà des appareils intelligents – et 40% déclarant qu’ils envisageraient d’en acheter un au cours des cinq prochaines années – c’est un problème qui ne disparaîtra pas de si tôt. Quelque chose à garder à l’esprit lorsque vous regardez votre nouveau grille-pain.

Inspiré d’un article paru sur le site Spectator (UK)

« Intelligence artificielle » : un abus de langage !

« Intelligence artificielle » : un abus de langage !

En complément au billet relatif au microbiome et au microbiote intestinal il m’est venu l’idée de disserter brièvement au sujet des avancées récentes de la biologie. En ce qui concerne ce microbiote l’analyse des matières fécales est réalisée de manière entièrement automatique que ce soit au niveau de l’identification des gènes bactériens impliqués dans l’une ou l’autre des voies métaboliques ainsi que l’analyse de ces métabolites. Comme pour le séquençage de l’ADN et aussi des ARN ribosomaux de ces mêmes bactéries il s’agit de robots en charge de préparer les échantillons et de les analyser. Il n’y a dans la pratique plus d’intervention humaine. Les résultats sont ensuite analysés par des ordinateurs puissants dans lesquels ont été introduits des logiciels sophistiqués à même d’analyser les informations fournies par les machines de séquençage et les spectrographes de masse miniaturisés présents dans le système pour identifier les métabolites présents dans ces matières fécales.

Cet équipement peut tout aussi bien être utilisé pour des analyses du sang ou d’autres fluides corporels. Les ordinateurs, outre ceux qui sont dédiés au pilotage des équipements, analysent les données, les « informations » pour être plus précis. En anglais le mot information se traduit par « intelligence » alors que le mot français ou wallon, romand ou québécois intelligence se traduit en anglais par le mot « cleverness ». Le mot anglais intelligence signifie en français stricto sensu « échange d’informations ». Dans le cas d’un système complexe d’analyse d’échantillons biologiques l’ordinateur collecte et analyse les informations et donc les renseignements relatifs à ces échantillons puis réalise lui-même un diagnostic de l’état d’équilibre (ou de déséquilibre) de ces échantillons car il peut être équipé d’un algorithme écrit de telle manière que ce diagnostic soit le plus précis possible. Il va au final imprimer un résultat indiquant au médecin qu’il serait judicieux que le patient X dont les matières fécales et leur microbiote ont conduit aux résultats x mange plus souvent des yaourts ou boive plus (ou moins) de jus d’orange.

Cet ordinateur est-il pour autant intelligent ? En d’autres termes s’agit-il de ce que l’on appelle abusivement de l’ « intelligence artificielle » ? Certainement pas ! La machine – puisqu’on parle aussi de « machine learning » – n’a fait que ce que l’opérateur lui a dit de faire : une simple analyse des informations et des renseignements que lui ont fourni les divers équipements d’analyses biologiques et chimiques et à partir de ces informations des algorithmes ont été utilisés pour rendre un diagnostic. Il en est de même pour de nombreux procédés industriels automatisés. Les ordinateurs ne sont pas « intelligents » ils ne font que traiter des informations ou des renseignements. Utiliser le terme « intelligence artificielle » est tout simplement un abus de langage, une mauvaise traduction de l’anglais vers le français mais aussi d’autres langues d’origine latine comme l’espagnol (inteligencia artificial). Et même un ordinateur jouant au jeu de go ou aux échecs n’est pas intelligent, il ne raisonne pas, il fait ce que l’opérateur lui a dit de faire et les algorithmes traitent les informations ou renseignements que lui envoie le jeu de go ou d’échecs pour continuer à prendre des décisions en suivant ces algorithmes. Et s’il y a eu quelque part l’intervention d’une intelligence c’était celle de l’opérateur informaticien qui a écrit ces algorithmes et les lignes de programmes. Les récents accidents de la circulation provoqués par des automobiles autonomes sont là pour le prouver, les algorithmes introduits dans les systèmes de pilotage de ces véhicules n’ont pas tout prévu et la voiture autonome est nullement « intelligente » comme le prétendent abusivement certaines personnes. Le jour où les avions seront pilotés par des robots je cesserai de voyager en avion …

SSII : une législation du travail surréaliste !

Capture d’écran 2017-05-16 à 12.47.18.png

Tous les organismes financiers et les banques disposent d’un département dit de technologie de l’information, en d’autres termes d’un service informatique (IT en anglais) qui traite les programmes et les diverses dispositions informatiques relatives par exemple aux mécanismes d’alerte ou à des études d’analyses et de prospectives, le développement proprement dit, et il y a aussi le matériel, les serveurs, la connectique et bien d’autres strates dans ce métier particulier. L’IT, dans quelque branche industrielle et commerciale que ce soit, est en perpétuelle évolution. De manière générale l’IT de ce genre de compagnies de l’industrie de la finance est à près de 80 % constitué de prestataires de services dont la durée des interventions varie de quelques jours à au plus trois années – selon la loi – comme nous allons en découvrir les conséquences.

Ces prestataires de service sont brièvement formés sur site car chaque entreprise a ses propres spécificités et ils doivent rapidement s’intégrer, du moins en théorie, dans les équipes en place pour au final être remerciés après les trois années de présence par souci de souplesse dans la gestion des ressources humaines.

En France en particulier, puisqu’il s’agit ici de décrire l’interférence néfaste entre les disposition législatives du code du travail français et les services IT des banques, ces dernières font appel à des sociétés de services informatiques plus connues sous le nom générique de SSII (Société de Services et d’Ingéniérie Informatique) essentiellement pour plus de souplesse, encore une fois, dans l’organisation du travail. Dans le meilleur des cas la banque propose un contrat à durée déterminée de trois ans (c’est la loi qui l’impose), une période estimée suffisante pour développer un nouveau programme ou améliorer ponctuellement une application en raison tant de l’évolution des matériels que du métier de la finance lui-même. L’analyste, qui est aussi appelé parfois développeur, envoyé en mission par une SSII aborde alors selon ses propres méthodes de travail le problème à résoudre sans, parfois, cultiver beaucoup d’interactions avec les autres membres de l’IT sous contrat à durée indéterminée ou non puisqu’il a été appelé pour résoudre une tâche précise qui lui est attribuée spécifiquement.

Il est important pour la bonne compréhension de cette situation surréaliste de l’IT dans l’industrie financière de bien préciser à nouveau que près de 80 % des personnels sont des prestataires de service appelés le plus souvent pour résoudre des tâches ponctuelles. Quand il s’agit de bons éléments qui réalisent donc un travail de qualité compréhensible pour n’importe quel autre membre de l’IT et dans les temps impartis leur mission est alors terminée. A contrario les « mauvais » éléments dont la mission est de développer une application un peu complexe travaillent selon leur méthode, parfois en utilisant un langage informatique peu répandu, et le résultat de leur intervention est totalement incompréhensible pour leurs collègues. Devant un tel état de fait, la direction de l’IT se voit obligée de leur proposer un contrat à durée indéterminée car personne n’est capable de reprendre leur travail s’il est encore inachevé après les trois années fatidiques !

Ce qui fait qu’au final la direction de l’IT aboutit à une situation totalement paradoxale : elle se trouve obligée d’embaucher des éléments de piètre qualité qui plombent durablement l’évolution du service informatique de la société alors que les bons éléments sont partis depuis longtemps … Au terme de ce contrat de trois ans la mission qui a été assignée à cet analyste est dans le meilleur des cas terminée mais le plus souvent inachevée ou au mieux ficelée mais pas encore suffisamment testée car développer un programme informatique est complexe et la perfection n’existe pas dans ce domaine. Par voie de conséquence la banque ne peut plus gérer ses ressources humaines dans la plus stricte gestion de la souplesse de ces dernières et c’est alors une dégradation de la qualité des services informatiques qui aboutit parfois à de monstrueuses bévues comme l’affaire Kerviel dont tout le monde se souvient : il n’y avait pas de dispositifs d’alerte correctement en place pour signaler les prises de position risquées de ce trader sur les marchés financiers car l’IT de sa banque n’avait pas correctement mis en place ces dispositifs …

Comme chaque individu apporte avec lui ses propres méthodes de travail, son successeur doit naturellement se former aux spécificités de son nouvel environnement et tenter de décrypter la tâche laissée en attente par son prédécesseur. Dans le meilleur des cas à nouveau ce nouvel arrivant n’atteindra sa pleine efficacité qu’au bout d’une année. Il est donc facile de mesurer le gâchis en heures-ingénieur à la charge de la banque car il faut ajouter que les prestations des SSII sont toujours facturées au maximum autorisé par la loi, encore la loi ! Il n’y a qu’à constater l’opulence des SSII comme Accenture ou CapGemini qui se sont positionnées sur ce créneau juteux ! Le code du travail avait initialement pour but de réduire la précarité de l’emploi puisque la banque se devait de proposer un poste en contrat à durée indéterminée (CDI) à l’issue de cette mission de 3 ans, cette idée absurde était dans l’esprit du législateur … Or ce cas de figure est rarissime car il est en pratique impossible de licencier un CDI, toujours selon les dispositions du code du travail (encore la loi !) : comment la loi peut-elle obliger un employeur à proposer un CDI à une personne à laquelle il n’aura plus de travail à proposer quelques mois plus tard ?

Cette bonne intention se révèle donc être une catastrophe tant pour l’employeur, c’est-à-dire la banque, dont l’évolution de son service IT finit pas être partiellement sinon totalement figée et globalement d’une qualité laissant pour le moins à désirer, que de l’employé de qualité de la SSII qui dans ces conditions législatives ubuesques restera toujours un précaire au salaire misérable, fournissant un nombre d’heures de travail invraisemblable, parfois de nuit, pour le plus grand profit de son employeur, la SSII, malgré ses qualités prouvées par l’excellence de ses interventions. Voilà un effet pervers méconnu du grand public d’une législation du travail totalement déconnectée de la réalité car tant l’ingénieur IT de qualité que la banque sont perdants et la précarité de l’emploi n’est toujours pas résolue : seuls les « mauvais éléments » finissent par être embauchés : tout simplement incroyable !

Il serait donc grand temps de revoir en profondeur la notion même de « précarité » du travail, en France en particulier, une notion mise en avant par les syndicats qui semblent décidément n’avoir rien compris aux réalités du monde économique moderne. Peut-être aussi est-il temps comme cet exemple des banques le montre clairement de changer en profondeur le code du travail et le simplifier pour arriver, comme en Suisse ou en Suède, à un code du travail se réduisant à un opuscule d’une soixantaine de pages. Dans le pays de Colbert on peut toujours rêver …

Source : conversations privées

Réflexion sur internet

Capture d’écran 2016-05-17 à 09.19.36.png

Mes deux ordinateurs sont équipés d’AdBlock et je n’ai aucun scrupule à utiliser cette protection que je considère comme une armure me permettant d’être affranchi de l’agression que constitue la publicité en ligne. Cette publicité, sans AdBlock, est tout simplement handicapante quand on ne dispose pas d’ultra-haut débit.

Depuis quelques mois je me suis rendu compte que certains de mes sites favoris me signalaient que c’était très mal d’utiliser AdBlock car ils vivaient justement de la publicité. J’ai été surpris que par exemple un site comme Forbes qui ne s’intéresse qu’aux riches, aux grandes entreprises et aux évènements glamour m’ait fait comprendre que dorénavant je ne pourrai plus avoir accès à sa prose parfois intéressante (mais rarement) si je ne désactivais pas AdBlock ! Comme si le magazine en ligne Forbes avait besoin de publicité pour survivre … C’est vraiment n’importe quoi.

D’autres sites, non contents de me signaler que j’utilise AdBlock, en rajoutent en me signalant que si je veux continuer à les parcourir il faut que je m’abonne à leur truc pour quelques dollars par mois. D’autres sites que je nommerai pas clament leur indépendance grâce aux dons de leurs lecteurs et que par conséquent si j’utilise AdBlock il me faudra aussi passer à la caisse pour financer leur indépendance. C’est encore vraiment n’importe quoi !

Mon blog est gratuit, n’importe qui peut reproduire mes articles, je n’ai jamais demandé à un quelconque de mes lecteurs de contribuer au financement de mon blog tout simplement parce que je veux préserver ma liberté d’expression qui est une des rares libertés qui me reste. Par contre le site wordpress me signale que parfois mes lecteurs peuvent être importunés par de la publicité quand ils lisent ma prose. Je m’en excuse auprès de mes lecteurs mais c’est indépendant de ma volonté et les revenus perçus par wordpress n’arrivent évidemment pas dans mon escarcelle. Pour que vous ne soyez pas importunés par de la publicité en lisant mon blog il faudrait que je paie un dû mensuel à wordpress …

Les grandes compagnies qui sévissent sur le net, Facebook, Google ou encore Apple, engrangent des dizaines de milliards de dollars par an grâce à cette publicité que tout un chacun subit chaque jour et elles commencent à sérieusement s’énerver à propos de ces petits outils qui nous protègent des agressions publicitaires en ligne à tel point qu’elles envisagent de systématiquement bloquer les accès à internet de ceux qui utilisent ces outils de protection. Où va la liberté ?

Vivons heureux dans un monde totalement connecté !

cD1hMWQzNjMzZjJkNWM5Y2U3ZWZiOGQ2OWU5NTQ4YTVjZiZnPTJkNzE0N2M2ZDRjNjk3NTNiMjQyNGVjMGViNDliODA2

Il y a déjà des centaines d’applications (apps) pour les téléphones cellulaires – j’avoue humblement ne pas du tout être familier avec celles-ci, ni avec mon téléphone d’une manière générale puisque je ne sais même pas comment prendre une photo – il y aura bientôt, dans quelques années, une sorte d’extension intégrée au téléphone portable qui sera un un spectromètre infra-rouge ultra miniaturisé capable d’analyser instantanément n’importe quel produit de consommation courante, un médicament ou un objet en plastique, une crème de beauté, une sauce à la tomate, un fruit, bref, un gadget aux immenses applications dans tous les domaines de la vie quotidienne.

Pour le moment, le SCiO, tel est son nom qui rappelle la première personne de l’indicatif du verbe savoir en latin d’où dérive d’ailleurs le mot science, est un gadget portatif qui procure une analyse détaillée de la matière vers laquelle on a orienté un rayonnement infra-rouge à l’aide d’un simple clic et qui reçoit en retour l’émission infra-rouge du produit dont on veut déterminer la composition. L’inventeur de ce petit bidule (voir la photo, crédit Associated Press), Dror Sharon, qui a créé la société Consumer Physics en Israël vante en ces termes son invention : « nous voulions trouver des applications avec lesquelles les gens peuvent avoir une connexion quasiment viscérale avec le monde dans lequel ils vivent ». Effectivement l’appareil réalise une analyse spectrale de l’objet et indique instantanément quelle est sa composition chimique. On imagine sans peine une utilisation dans des domaines aussi divers que l’analyse des aliments, par exemple ce qu’on nous sert dans un restaurant, la détection de produits pharmaceutiques frelatés, l’état de murissement d’un fruit dans le domaine de l’horticulture ou encore la présence de pigments dangereux dans un jouet en plastique. D’autres applications du SCiO peuvent être envisagées comme par exemple évaluer la richesse en calories d’un fromage, l’usure des pneus d’une voiture, l’analyse d’un échantillon de terre, de vin ou de bière.

Sharon, ingénieur diplômé du MIT, pense pouvoir commercialiser son gadget au prix de 299 dollars dans le courant de l’année 2015 après avoir créé son entreprise par fundraising qui a réuni plus de 11000 souscripteurs et la coquette somme de deux millions de dollars. Naturellement l’appareil sera autonome et transmettra les données de l’analyse à un smartphone après avoir comparé l’analyse spectrale obtenue à une banque de données mais il est tout à fait envisageable que dans un avenir proche un super smartphone pourra remplir lui-même cette fonction. L’histoire ne dit pas si l’accès à la banque de données sera gratuite ou payante mais le SCiO est en lui-même un nouvel outil d’investigation qui laisse entrevoir une nouvelle forme de « Googling » directement associée à la matière qui nous environne.

Source : Associated Press

On est entré dans l’univers prédit par Orwell

 

Le trouble de l’attention chez l’enfant hyperactif (ADHD) est considéré comme une maladie psychiatrique qui concerne entre 1 et 2 % des enfants. En général, une prise en charge optimale de l’enfant par les parents permet de résoudre les problèmes qu’engendre ce trouble la plupart du temps passager mais les parents sont souvent soumis à rude épreuve car un enfant hyperactif qui n’écoute pas ce qu’on lui dit, c’est juste un exemple, peut devenir rapidement exaspérant pour la plus zen des mères de famille. D’une manière générale ce trouble disparaît ou est largement atténué à la fin de l’adolescence mais les parents en gardent toujours un très mauvais souvenir car ils ne savent pas comment interagir avec leur enfant. L’état de stress permanent de ces parents tend d’ailleurs à empirer la situation car un enfant détecte l’humeur de ses parents beaucoup mieux qu’on ne peut l’imaginer et alors son hyperactivité peut se concrétiser par des situations conflictuelles permanentes rendant tout simplement la vie des parents infernale. Ces derniers doivent parfois se plier à une thérapie ou accepter les conseils d’un thérapeute pour les orienter dans leur relation avec leur enfant.

Capture d’écran 2014-06-05 à 09.57.13

Devant ce problème et considérant les moyens modernes de communication tels que les ordinateurs, les tablettes ou les téléphones cellulaires à notre disposition quotidiennement une équipe d’informaticiens de l’Université de San Diego en collaboration avec Microsoft a mis au point un application pour smartphone appelée ParentGuardian qui collecte les données envoyées par Wifi d’un bracelet que portent les parents en permanence quand ils sont en présence de leurs enfants. Ce bracelet mesure les discrètes poussées de transpiration, le premier signe tangible du stress, et par l’intermédiaire d’un smartphone ces données parviennent à un serveur dédié qui les analyse en temps réel et retourne sur le smartphone ou de préférence une tablette les instructions aux parents afin qu’ils prennent les mesures nécessaires pour déstresser. Ces interventions à distance sont basées sur la thérapie parentale comportementale qui a prouvé son bien-fondé dans la relation entre parents et enfants souffrant d’ADHD. L’ingénieur de UCSD transfuge de Microsoft définit en ces termes l’application en question : « nous voulons (avec cette application ParentGuardian) aider les parents à être les parents qu’ils voudraient être ». Tout est dit ! Le serveur, un genre de petit « big-brother » spécialisé surveille les parents durant les heures critiques de la vie familiale c’est-à-dire entre 18 h et 22 h et infléchit en temps réel l’attitude des parents. Ces derniers reçoivent sur leur tablette posée par exemple quelque part à la cuisine ou sur la table de la salle à manger des instructions du genre : « prenez trois grandes respirations, comptez jusqu’à 5, imaginez que chaque numéro change de couleur. Responsabilisez-vous, soyez préparé, soyez prédictible … ».

Ce genre de développement est la porte ouverte à une grave atteinte à la vie privée. Il existe déjà un certain nombre d’applications qui permettent de surveiller à distance à l’aide d’un smartphone le rythme cardiaque, la tension artérielle et bien d’autres paramètres afin de faire intervenir le cas échéant un médecin mais la surveillance de la vie familiale, par définition privée, est une atteinte à la liberté fondamentale de l’individu. Nombre d’utilisateurs de smartphones sont déjà devenus totalement dépendants de leur gadget, il suffira que cette dépendance soit judicieusement déviée pour qu’ils deviennent des extensions déshumanisées de leur téléphone, soumis au traitement statistique à l’aide d’algorithmes sophistiqués par des serveurs à l’identité inconnue mais certainement contrôlés par de grosses compagnies comme Google ou Microsoft. Le smartphone est l’outil idéal pour que tout un chacun plonge dans un univers orwellien. Les moteurs de recherche d’internet infléchissent déjà nos choix sans que nous en soyons pleinement conscients, mais quand nous serons munis de toutes sortes de détecteurs corporels supposés bénéfiques pour notre santé nous serons alors devenus des machines. Quel bel avenir en perspective.

Source : UCSD School of Engineering

 

Le cerveau classe lui-même ce qu’il doit mémoriser !

Capture d’écran 2014-06-04 à 13.07.51

Jusqu’à ces deux études séparées et publiées dans les PNAS il y a quelques jours (voir les liens), on croyait la capacité de mémorisation du cerveau humain illimitée ou presque sans qu’on n’aie jamais pu prouver cet a priori. On a en effet coutume de considérer qu’on est loin, très loin, d’utiliser la totalité des potentialités de notre cerveau et que par conséquent un meilleur apprentissage de nos capacités de mémorisation pourrait éventuellement décupler notre aptitude à emmagasiner des informations variées, utiles ou non. Or ces deux études montrent clairement qu’il n’en est rien et que le cerveau se comporte sans que l’on en soit conscient comme le disque dur d’un ordinateur. Comparer le cerveau à un disque dur d’ordinateur n’est peut-être pas vraiment adapté mais au moins cela permet d’expliquer comment les choses se passent dans la réalité selon ces deux études. Quand on a atteint les limites de stockage d’un disque dur on décide d’éliminer les fichiers qui ne sont plus que rarement utilisés pour libérer de l’espace de mémoire. Cette opération est faite délibérément. Le cerveau fait un peu la même chose mais ce processus est totalement inconscient et c’est ce qu’ont montré ces deux études.

Dans la première approche, 55 participants ont été soumis à un exercice de perception visuelle durant lequel ils voyaient défiler pendant moins d’une seconde des images montrant simultanément 4 photos. Quatre visages identiques, ou deux visages et deux paysages, ou encore 4 objets identiques ou deux objets et deux visages, tout en suivant l’activité cérébrale par imagerie fonctionnelle par résonance magnétique nucléaire (fMRI). Immédiatement après avoir visionné ces images, on demandait aux participants, toujours en cours d’examen par fMRI, de nommer les images ou les photos dont ils se souvenaient, c’est-à-dire celles que le cerveau avait mémorisé pendant l’exercice. La perception visuelle est traitée par le cortex visuel situé à l’arrière du cerveau dans le la région occipitale. Les informations sont stockées dans une autre partie du cerveau appelée le cortex occipito-temporal et dans des régions discrètes de ce dernier et séparées les unes des autres selon qu’il s’agit de photos de visages, de maisons, d’objets ou de paysages, c’est ce qu’a montré la fMRI. L’activation de ces différentes zones de mémorisation dépend selon cette étude de la nature des images soumises aux sujets en cours d’étude. La mémorisation des visages est par exemple systématiquement plus efficace si sur une image il y a deux visages et deux paysages en comparaison d’une autre image avec seulement quatre visages. Le cortex visuel effectue donc un tri et envoie pour mémorisation une partie des informations que lui a envoyé la rétine. Toujours par fMRI, l’équipe de chercheurs de l’Université d’Harvard a ainsi montré que le cerveau effectuait de lui-même un classement des informations selon leur importance et les stockait dans des zones du cerveau différentes les unes des autres. En quelque sorte, le cerveau s’arrange pour qu’il n’y ait pas « d’embouteillage » au niveau des circuits neuronaux reliant ces zones du cortex relativement éloignées les unes des autres en effectuant une sorte de tri totalement indépendant de notre volonté.

Dans une autre étude effectuée cette fois à l’Université du Texas à Austin, l’approche était différente car la stimulation visuelle consistait à montrer des séries de 3 photos, des objets, des paysages ou des visages et demander aux participants, après les deux premières photos, quel était leur supposition quant à la nature de la photo suivante, par exemple un visage, après deux visages ou un objet après deux objets. Et parfois on montrait alors au sujet un paysage alors qu’il aurait souhaité voir un visage. Le but du test était de faire en sorte que chaque sujet se soumette en réalité à un classement des photos qu’on lui montrait, le visage d’un homme ou d’une femme, ou encore une scène prise à l’extérieur ou à l’intérieur d’une maison. Dix minutes après avoir visionné ces groupes de 3 images successives, 144 illustrations au total soit 48 séries de trois photos, on soumettait les participants à l’étude à un test surprise en leur montrant à nouveau toutes les images qu’ils avaient visionné précédemment dans un certain ordre mais en introduisant au hasard dans la série 48 autres images qu’ils n’avaient jamais vu. On demandait alors à chaque sujet au cours de cette deuxième partie du test d’identifier les images dont ils se souvenaient et celles qu’ils n’avaient encore jamais vu en essayant simultanément d’établir une note concernant le degré de certitude de leur réponse. Il faut se souvenir pour bien comprendre la signification du second test que lors de la première partie de l’investigation les séries de trois images étaient ordonnées pour que les sujets de l’étude anticipent la nature de la troisième image qu’il leur était donnée de voir au cours du test. Comme on pouvait s’y attendre un peu, au cours du second test surprise les divers sujets soumis à l’étude arrivaient beaucoup moins bien à se souvenir des deux images qu’ils avaient déjà vu quand la troisième image était hors contexte, donc jamais vue auparavant.

Les chercheurs en ont déduit que le cerveau est loin de tout mémoriser de manière identique et effectue donc un classement suivant un certain ordre de priorité. Ce classement a également pour but d’alléger les interconnexions entre les zones du cortex cérébral et d’éviter ainsi un encombrement préjudiciable à la bonne qualité du processus de mémorisation mais également de mettre « à la corbeille » des informations jugées, de manière totalement inconsciente, « inutiles » afin de préserver un espace de mémorisation suffisant. Peut-être un début d’explication de l’oubli involontaire que l’on peut parfois constater et qui n’a rien à voir avec la perte de mémoire.

Aussi incroyable que cela puisse paraître, le cerveau gère donc automatiquement et inconsciemment le processus de mémorisation. Pour en revenir à la comparaison avec un ordinateur, ce serait un peu comme si on disait à ce dernier de trier tous les e-mails reçus dans la boite de courrier électronique automatiquement sans qu’on intervienne directement et de mettre à la corbeille tous les messages que l’ordinateur classerait de lui-même comme indésirables, la corbeille se vidant également automatiquement. Le cerveau est donc bien une incroyable machine à traiter les informations avec ses propres critères dont on est totalement inconscient !

Liens : http://www.pnas.org/content/early/2014/05/29/1317860111 et http://www.pnas.org/content/early/2014/05/29/1319438111 , illustration tirée de The Times. Les liens permettent d’accéder à une partie des articles.

La science moderne dans tous les états !

JOURNALS-articleLarge

Il y a quelques années je suis allé rendre visite à un ancien élève de thèse de science à qui j’avais transmis une partie de mon savoir. Il était devenu directeur d’un laboratoire de virologie de réputation internationale. Il me présenta à ses collaborateurs réunis dans le laboratoire. A l’époque où ce brillant chercheur préparait sa thèse les paillasses étaient encombrées de toutes sortes de fioles et de tubes, de la vaisselle attendait dans un grand bac d’acide, on devait attendre notre tour pour faire des calculs avec l’unique calculateur du laboratoire et on devait dessiner à l’encre de Chine les illustrations des manuscrits que nous avions l’intention de soumettre à publication.

Dans cet endroit tout neuf, les paillasses étaient vides, rien, pas le moindre tube à essai. Un appareil de forme cubique était posé dans un coin avec comme tout prolongement un clavier et un écran. Quelques ordinateurs portables trainaient ça et là, aucune odeur de ces produits chimiques caractéristiques ne pouvait être décelée. A la fin du petit discours, je me permis de demander à ses collaborateurs comment ils travaillaient puisqu’il n’y avait rien sur les paillasses. Il est vrai que je n’avais pas remis les pieds dans un laboratoire de recherche en biologie depuis plus de dix ans et je me rendis compte que tout avait changé. Des machines automatiques avaient remplacé des armadas de petites mains, ces techniciennes sans qui on ne pouvait pas faire progresser le travail, et les ordinateurs étaient connectés à des banques de données et réalisaient des calculs ultrarapides pour faire ressortir des résultats dits « statistiquement significatifs ».

De mon temps il fallait parfois plusieurs semaines de travail pour purifier un enzyme à partir de dix kilos de levures pour pouvoir effectuer le dosage d’un métabolite intermédiaire dans une biosynthèse. A peine quinze ans plus tard, des spectromètres miniaturisés effectuent ce travail en quelques secondes, le seul savoir-faire des candidats au doctorat se limite à la préparation des échantillons dans de minuscules tubes à l’aide de réactifs prêts à l’emploi. Le reste de la recherche proprement dite s’effectue avec un ordinateur et pour acquérir un soupçon de confiance les résultats obtenus sont comparés à d’autres résultats provenant d’autres laboratoires en considérant que tout le monde scientifique est sans exception d’une honnêteté irréprochable.

Pourtant, ce n’est pas tout à fait le cas, loin de là ! Quand on lit la presse scientifique, ce que je fais tous les jours, on est souvent étonné de trouver un article qui vante les effets « potentiellement  » bénéfiques du café pour prévenir certains cancers et quelques semaines plus tard un autre article sur le même café qui au contraire « peut » être la cause de cancers, on est en droit d’être surpris sinon déconcerté. Même chose pour les statines, le seuil de LDL pour prescrire ces statines varie selon les études et d’une semaine à l’autre on peut lire tout et son contraire. Ou encore les « radiations » émises par les téléphones cellulaires «pourraient » être la cause de tumeurs du cerveau. En réalité toutes ces études ne tiennent pas compte de la qualité des évidences scientifiques qui sont multifactorielles car le nouveau scientifique échafaude des hypothèses et tente de les prouver en réalisant ce que l’on appelle des méta-analyses partant du principe que plus il y a de données disponibles, plus grande sera la confiance que l’on pourra accorder aux résultats et par voie de conséquence ce scientifique d’un genre nouveau sera d’autant plus convaincu que son hypothèse est vraie.

La recherche scientifique est ainsi devenue, avec la généralisation des outils informatiques et statistiques, une sorte de miroir dans lequel le chercheur se projète. Plus il se regarde dans le miroir (l’écran de son ordinateur) plus il est satisfait de lui-même quand bien même l’hypothèse de départ est complètement fausse. En d’autres termes la recherche scientifique est devenue un entreprise d’auto-satisfaction qui conduit à des publications dans des revues à comités de lecture supposés composés de scientifiques honnêtes (ce qui est loin d’être toujours le cas) et ces publications servent à obtenir de nouveaux crédits (grants en anglais) pour permettre au chercheur de continuer à se regarder dans son miroir.

Pourtant, on pourrait croire que le travail de recherche en laboratoire est expérimental et qu’il consiste à sérier l’étude des variables intervenant dans un processus afin d’en obtenir une description aussi détaillée que possible. Comme il est infiniment plus facile et rapide, et aussi moins coûteux, d’observer ce que les autres ont observé pour en déduire n’importe quoi, alors la recherche devient progressivement n’importe quoi ! Lorsqu’un résultat semble intéressant, une expérimentation bâclée sans aucun respect des protocoles basiques pourtant connus de tous les scientifiques valide ce que l’ordinateur a recraché après avoir réalisé une étude statistique portant sur, disons, plus de cinquante mille cas. Et on obtient des articles scientifiques sensationnels du genre « la vitamine C diminue les risques de rhume » alors que strictement rien ne le prouve chez les humains mais ce résultat a été confirmé sur des souris et il est donc validé.

Les sociétés Bayer et Amgen, toutes deux impliquées dans la santé humaine ont méticuleusement réalisé une analyse de milliers d’articles scientifiques concernant de près leurs préoccupations de recherche. Bayer s’est rendu compte que moins de 25 % des travaux publiés pouvaient être reproduits en laboratoire et avec Amgen c’est pire, seulement 11 % des articles pourtant publiés dans des revues prestigieuses comme Nature, Science ou les PNAS pouvaient être reproduits. Amgen a eu « l’audace » de contacter certains signataires d’articles dignes d’intérêt pour ses propres recherches. Les auteurs ont eux-même, c’est un comble, été incapables de reproduire leur propre travail pourtant publié après revue par un comité de lecture dans l’environnement strict d’un laboratoire de recherche industriel scrupuleusement respectueux des protocoles expérimentaux. Pour les recherches sur les anti-cancéreux, la proportion diminue à 5 % ! Il suffit de lire cet article pour s’en rendre compte ( http://www.nature.com/nrclinonc/journal/v8/n4/full/nrclinonc.2011.34.html ) … Les études initiales sont en général le fait de laboratoires universitaires financés par des fonds publics ou des fondations caritatives qui ont elles-mêmes tout intérêt à « forcer » à la découverte puisque les enjeux financiers sont présents à l’esprit de ces fondations comme des universités et autres instituts de recherche. Mais quand une société comme Bayer s’aperçoit, quelques centaines de millions de dollars plus tard, que les essais en phase II sont décevants, il est trop tard ! C’est la raison pour laquelle, avant toute décision, les résultats scientifiques sont en premier lieu vérifiés.

L’Université du Colorado à Denver tient à jour une liste des périodiques scientifiques « de caniveau » ( http://scholarlyoa.com/individual-journals/ ) qui est édifiante en particulier dans les secteurs de la pharmacologie et de l’informatique, curieux rapprochement. Rien au sujet des revues de climatologie mais on peut espérer que les périodiques intimement impliqués dans ce secteur de non-science feront partie un jour prochain de cette liste qui est intéressante à consulter.

Sources : NY Times, PubMed, U. of Colorado, illustration NY Times.

Nouvelles de Tokyo (électronique)

Actuellement se déroule au Tokyo Big Sight Convention Center un salon des technologies disons innovantes du nom de Ceatec. La présentation d’un robot qui cueille les fraises après avoir reconnu à l’aide de caméras si la fraise est bien mûre à point et qui les range avec précaution dans des barquettes n’est presque rien à coté de lunettes capables de traduire en anglais un menu écrit en japonais, de servir d’écran tactile virtuel ou encore de reconnaître des visages … C’est le dernier né des joujoux technologiques présentés par NTT Docomo, le géant de la téléphonie japonaise. Pour lire un menu écrit en japonais, il suffit de le regarder et les lunettes permettent de voir l’image retouchée du menu traduit en anglais ou une autre langue en surimpression. On est déjà dans la fiction. Plus encore, ces lunettes permettent de reconnaître des visages s’ils sont enregistrés dans son smartphone et une fonctionnalité permet d’afficher (en sur-impression visuelle) les informations relatives à cette personne si elles ont été enregistrées dans le téléphone, du genre nom et prénom, occupation, numéro de téléphone, etc. Picasa fait déjà ça mais le degré de sophistication est arrivé avec ces lunettes bien au delà ! Mais mieux encore, en regardant une surface plane rectangulaire du genre feuille de papier A4 posée sur une table ou un coin de mur blanc, les lunettes transforment cette surface en pavé tactile virtuel sur lequel on va pouvoir utiliser ses doigts exactement comme on le fait sur le pavé tactile de son smartphone ou d’une tablette. Reliées (sans fil) à son smartphone (ou un ordinateur) les lunettes reconnaissent les mouvements des doigts et les transforment en instructions afin de voir leur déplacement dans l’écran doublement virtuel que l’on voit grâce aux lunettes en surimpression. Si on devient accro à ce genre d’accessoire, ce qui pourrait arriver plus tôt qu’on ne peut l’imaginer on n’aura plus qu’à dématérialiser notre corps pour devenir un être totalement virtuel … strawberry fields

Source : Agence JiJi

 

la i-watch, objet du futur … déshumanisé

apple iwatch 02

Avant de se faire autoritairement implanter des micro-chips sous la peau afin d’être suivi partout par Big Brother, ce qui pourrait arriver avant 2025 mais la masturbation intellectuelle stérile des ministres français ne l’a pas prévu ou n’a pas osé le prévoir, la dernière innovation d’Apple préfigure le monde informatisé de demain. La i-watch d’Apple pourrait remplir ce rôle. Elle pourrait contenir toutes les informations relatives à la santé, à la génétique, aux idées politiques et aux choix religieux (quand on fait une demande de visa pour les USA on vous demande si vous êtes « caucasien » ou autre, le préciser, si vous êtes chrétien ou autre, le préciser) et l’i-watch pourra contenir toutes ces informations révélées en passant sous un portique ou en positionnant l’i-watch dans un lecteur spécial. L’i-watch pourra aussi servir de carte de crédit, pour payer son autobus ou son métro, et aussi payer ses impôts, car l’i-watch sera connectée en permanence à un site du genre cyber-banque ou cyber-ministère mondialement présents. Plus de porte-monnaie ou de carte de crédit, plus de passeport, plus de permis de conduire, plus de carte de santé, la plus importante partie de nous-même sera contenue dans cet objet au design particulièrement attractif. La cyber-civilisation mondiale !