Il y a quelques années je suis allé rendre visite à un ancien élève de thèse de science à qui j’avais transmis une partie de mon savoir. Il était devenu directeur d’un laboratoire de virologie de réputation internationale. Il me présenta à ses collaborateurs réunis dans le laboratoire. A l’époque où ce brillant chercheur préparait sa thèse les paillasses étaient encombrées de toutes sortes de fioles et de tubes, de la vaisselle attendait dans un grand bac d’acide, on devait attendre notre tour pour faire des calculs avec l’unique calculateur du laboratoire et on devait dessiner à l’encre de Chine les illustrations des manuscrits que nous avions l’intention de soumettre à publication.
Dans cet endroit tout neuf, les paillasses étaient vides, rien, pas le moindre tube à essai. Un appareil de forme cubique était posé dans un coin avec comme tout prolongement un clavier et un écran. Quelques ordinateurs portables trainaient ça et là, aucune odeur de ces produits chimiques caractéristiques ne pouvait être décelée. A la fin du petit discours, je me permis de demander à ses collaborateurs comment ils travaillaient puisqu’il n’y avait rien sur les paillasses. Il est vrai que je n’avais pas remis les pieds dans un laboratoire de recherche en biologie depuis plus de dix ans et je me rendis compte que tout avait changé. Des machines automatiques avaient remplacé des armadas de petites mains, ces techniciennes sans qui on ne pouvait pas faire progresser le travail, et les ordinateurs étaient connectés à des banques de données et réalisaient des calculs ultrarapides pour faire ressortir des résultats dits « statistiquement significatifs ».
De mon temps il fallait parfois plusieurs semaines de travail pour purifier un enzyme à partir de dix kilos de levures pour pouvoir effectuer le dosage d’un métabolite intermédiaire dans une biosynthèse. A peine quinze ans plus tard, des spectromètres miniaturisés effectuent ce travail en quelques secondes, le seul savoir-faire des candidats au doctorat se limite à la préparation des échantillons dans de minuscules tubes à l’aide de réactifs prêts à l’emploi. Le reste de la recherche proprement dite s’effectue avec un ordinateur et pour acquérir un soupçon de confiance les résultats obtenus sont comparés à d’autres résultats provenant d’autres laboratoires en considérant que tout le monde scientifique est sans exception d’une honnêteté irréprochable.
Pourtant, ce n’est pas tout à fait le cas, loin de là ! Quand on lit la presse scientifique, ce que je fais tous les jours, on est souvent étonné de trouver un article qui vante les effets « potentiellement » bénéfiques du café pour prévenir certains cancers et quelques semaines plus tard un autre article sur le même café qui au contraire « peut » être la cause de cancers, on est en droit d’être surpris sinon déconcerté. Même chose pour les statines, le seuil de LDL pour prescrire ces statines varie selon les études et d’une semaine à l’autre on peut lire tout et son contraire. Ou encore les « radiations » émises par les téléphones cellulaires «pourraient » être la cause de tumeurs du cerveau. En réalité toutes ces études ne tiennent pas compte de la qualité des évidences scientifiques qui sont multifactorielles car le nouveau scientifique échafaude des hypothèses et tente de les prouver en réalisant ce que l’on appelle des méta-analyses partant du principe que plus il y a de données disponibles, plus grande sera la confiance que l’on pourra accorder aux résultats et par voie de conséquence ce scientifique d’un genre nouveau sera d’autant plus convaincu que son hypothèse est vraie.
La recherche scientifique est ainsi devenue, avec la généralisation des outils informatiques et statistiques, une sorte de miroir dans lequel le chercheur se projète. Plus il se regarde dans le miroir (l’écran de son ordinateur) plus il est satisfait de lui-même quand bien même l’hypothèse de départ est complètement fausse. En d’autres termes la recherche scientifique est devenue un entreprise d’auto-satisfaction qui conduit à des publications dans des revues à comités de lecture supposés composés de scientifiques honnêtes (ce qui est loin d’être toujours le cas) et ces publications servent à obtenir de nouveaux crédits (grants en anglais) pour permettre au chercheur de continuer à se regarder dans son miroir.
Pourtant, on pourrait croire que le travail de recherche en laboratoire est expérimental et qu’il consiste à sérier l’étude des variables intervenant dans un processus afin d’en obtenir une description aussi détaillée que possible. Comme il est infiniment plus facile et rapide, et aussi moins coûteux, d’observer ce que les autres ont observé pour en déduire n’importe quoi, alors la recherche devient progressivement n’importe quoi ! Lorsqu’un résultat semble intéressant, une expérimentation bâclée sans aucun respect des protocoles basiques pourtant connus de tous les scientifiques valide ce que l’ordinateur a recraché après avoir réalisé une étude statistique portant sur, disons, plus de cinquante mille cas. Et on obtient des articles scientifiques sensationnels du genre « la vitamine C diminue les risques de rhume » alors que strictement rien ne le prouve chez les humains mais ce résultat a été confirmé sur des souris et il est donc validé.
Les sociétés Bayer et Amgen, toutes deux impliquées dans la santé humaine ont méticuleusement réalisé une analyse de milliers d’articles scientifiques concernant de près leurs préoccupations de recherche. Bayer s’est rendu compte que moins de 25 % des travaux publiés pouvaient être reproduits en laboratoire et avec Amgen c’est pire, seulement 11 % des articles pourtant publiés dans des revues prestigieuses comme Nature, Science ou les PNAS pouvaient être reproduits. Amgen a eu « l’audace » de contacter certains signataires d’articles dignes d’intérêt pour ses propres recherches. Les auteurs ont eux-même, c’est un comble, été incapables de reproduire leur propre travail pourtant publié après revue par un comité de lecture dans l’environnement strict d’un laboratoire de recherche industriel scrupuleusement respectueux des protocoles expérimentaux. Pour les recherches sur les anti-cancéreux, la proportion diminue à 5 % ! Il suffit de lire cet article pour s’en rendre compte ( http://www.nature.com/nrclinonc/journal/v8/n4/full/nrclinonc.2011.34.html ) … Les études initiales sont en général le fait de laboratoires universitaires financés par des fonds publics ou des fondations caritatives qui ont elles-mêmes tout intérêt à « forcer » à la découverte puisque les enjeux financiers sont présents à l’esprit de ces fondations comme des universités et autres instituts de recherche. Mais quand une société comme Bayer s’aperçoit, quelques centaines de millions de dollars plus tard, que les essais en phase II sont décevants, il est trop tard ! C’est la raison pour laquelle, avant toute décision, les résultats scientifiques sont en premier lieu vérifiés.
L’Université du Colorado à Denver tient à jour une liste des périodiques scientifiques « de caniveau » ( http://scholarlyoa.com/individual-journals/ ) qui est édifiante en particulier dans les secteurs de la pharmacologie et de l’informatique, curieux rapprochement. Rien au sujet des revues de climatologie mais on peut espérer que les périodiques intimement impliqués dans ce secteur de non-science feront partie un jour prochain de cette liste qui est intéressante à consulter.
Sources : NY Times, PubMed, U. of Colorado, illustration NY Times.
« Bayer s’est rendu compte que moins de 25 % des travaux publiés pouvaient être reproduits en laboratoire et avec Amgen c’est pire, seulement 11 % des articles pourtant publiés dans des revues prestigieuses comme Nature, Science ou les PNAS ne pouvaient pas être reproduits. »
Pour Amgen tu veux dire que seulement 11% peuvent etre reproduit j’imagine ?
Je suis d’accord avec votre analyse même si elle est déprimante. En effet compte tenu de la facilité de l’usage des ordinateurs et de leur puissance de calcul, il est peu probable que l’on revienne à réfléchir sur un problème au lieu de croire ce que l’ordinateur décide (même en toute bonne foi des utilisateurs, bonne foi dont vous semblez douter !!!) .
Beaucoup oublient que les programmes ne sortent comme résultats que ce que d’autres ont introduit dans le logiciel, quelles que soient la compétance des programmeurs et les hypothèses modélisées.
Dans le domaine de la construction (où la ‘science’ est certainement beaucoup plus ‘établie’) le recours à des logiciels très sophistiqués n’a par exemple pas permis d’eviter l’effondrement d’un aérogare. Dans le même ordre d’idées, j’ai constaté des erreurs (certes de peu de conséquence) dans des logiciels certifiés et utilisés par la SNCF ainsi que des erreurs dans les normes actuelles.
A contrario, des ouvrages de grande complexité tel que les ponts du Golden Gate ou de Brooklin ont été conçus avant l’usage effrené des ordinateurs et se comportent toujours très bien.
En conclusion, les ordinateurs sont à considérer comme des aides et non comme des décideurs (ce qui est trop souvent le cas).