Une expérience publiée doit être reproductible, c'est le principe d'une publication scientifique qui doit détailler le matériel utilisé et la méthode. Mais qui se donne la peine de refaire les expériences qui mériteraient pourtant confirmation ?

Et pourtant, lorsque qu'un chercheur trouve le temps et l'argent nécessaires pour reproduire une expérience publiée par un autre chercheur, il n'obtient souvent pas le même résultat. La fréquence de ce problème conduit à parler d'une “crise  de la reproductibilité”.

Est-ce de la fraude ?

C'est  le mot qui fâche et qui n’est quasiment jamais prononcé, comme lapin sur un bateau, ou corruption dans un congrès politique. Oui, cette crise de reproductibilité est un euphémisme car l’envie de réussir fausse parfois le jugement des chercheurs. D’ailleurs, parmi les facteurs favorisant cette non reproductibilité, on retrouve ceux de la fraude scientifique en général, à savoir la compétition entre chercheurs sur des sujets “chauds” ou les domaines de recherche à fort potentiel commercial. En pratique, si le hasard ou la variabilité du vivant peuvent expliquer certains résultats discordants en biologie ou en médecine, cette crise est surtout liée aux "faiblesses humaines" qui n’épargnent pas les scientifiques.

Quand l'Industrie fait la leçon à l'Université.

J'ai été intéressé par une publication récente signalée sur l’excellent blog de mon confrère Hervé Maisonneuve. Les auteurs de l'article sont des chercheurs employés par un laboratoire pharmaceutique, qui décrivent leurs difficultés à reproduire des expériences publiées par des confrères universitaires. En effet, les départements de recherche industriels souhaitent éviter de partir sur des fausses pistes qui leurs coûteraient des fortunes. Leurs chercheurs “maison” commencent donc par tenter de reproduire les expériences prometteuses publiées par des chercheurs universitaires. Or c’est souvent décevant : ils ne parviennent pas aux mêmes résultats. Et donc, dans cet article, ce sont les vilains chercheurs de la méchante industrie qui donnent des leçons de rigueur aux gentils universitaires désintéressés ! Tout cela se rédige à mots feutrés : les chercheurs industriels parlent de “manque de robustesse” des résultats, plutôt que de probables bidouilles. Mais si l'on sait lire entre les lignes, c’est assez savoureux, et cela nous renvoie à un chef-d’oeuvre d’humour, qui est justement un guide de traduction des publications scientifiques dont voici quelques extraits :

Lorsque vous lisez : La souris DZB nous a paru la mieux adaptée pour tester notre hypothèse .

  • Comprenez : En fait, c’est un lot qui nous restait d’une expérience précédente.

Si vous lisez Trois cas ont été sélectionnés au hasard pour l'analyse finale

  • Comprenez : Les autres ont donné des résultats incohérents et on les a balancés.

Et enfin, si vous lisez à propos du composé employé : "HAUTE PURETE", "TRES HAUTE PURETE", ou "ULTRAPUR".

  • Comprenez : Composition inconnue, mises à part les prétentions exagérées du fournisseur.

La morale de ces histoires, c'est qu'il ne faut pas prendre pour acquis tout ce qui se publie, loin de là, et garder un esprit critique affûté face à des résultats surprenants

Lire aussi : Ioannidis JPA (2005) Why Most Published Research Findings Are False. PLoS Med 2(8): e124. https://doi.org/10.1371/journal.pmed.0020124 

L'équipe
Ce contenu n'est pas ouvert aux commentaires.