MEDICIMAGE / BSIP Déontologie scientifique

Fraudes scientifiques – Intégrité scientifique ou désintégration de la science

Le CNRS est un institut discret qui aime axer sa communication sur les seuls résultats scientifiques. Dans les dernières années, les affaires Jessus, Voinnet, Peyroche, ont rappelé que la science doit faire avec les faiblesses humaines. Des allégations de fraude scientifique pèsent sur ces trois chercheurs, sans qu’il soit aisé de démêler ce qui relève de l’inconduite de ce qui relève de la calomnie envieuse.

par Maël Lemoine, philosophe des sciences médicales.

MaelLemoine

L'essentiel

  • Les chercheurs ne sont ni plus, ni moins vertueux que les élus, des fonctionnaires, ou des gérants de société privée.
  • Ce qui distingue les chercheurs, c’est la nature particulière de leur activité : la recherche scientifique. Il est difficile d’estimer si l’on a avancé, mais facile de mesurer ce que l’on a publié.
  • Une partie importante du travail du chercheur consiste à choisir le dispositif expérimental qui lui donnera les résultats les plus « propres » – en faveur de l’hypothèse qu’il soutient. [...] Beaucoup accusent le système de la course à la publication
  • La publication est une reconnaissance par les pairs, non pas seulement de la rigueur du travail du chercheur, mais aussi, de son intérêt. [...] Beaucoup accusent le système de la course à la publication
  • Il arrive [...] que "l’on joue de la gomme" ou que "le crayon glisse dans le cahier où l’on consigne les résultats des expériences. Les sanctions encourues [...] sont assez importantes pour ruiner sa carrière scientifique. [...] cette pratique est détestée, et non tolérée, dans le milieu de la recherche.
  • ... Les résultats de 90 % des essais cliniques menés par des chercheurs du monde académique ne sont pas reportés ou publiés
  • On appelle le biais de publication [...] le fait que les journaux n’acceptent en général de publier que les résultats « positifs » qui viennent appuyer une thèse.
  • Le scientifique stratège, en trouvant, la bonne proportion entre la publication de résultats faciles et la recherche de résultats plus difficiles, obtient ainsi les financements pour des recherches « vitrines » faciles à publier, et poursuit aussi sur ses crédits des hypothèses un peu plus risquées, mais potentiellement beaucoup plus intéressantes.
  • Récemment, le PDG du CNRS, Antoine Petit, a nommé un « déontologue » et un « responsable intégrité scientifique ».
  • Même si elles ne sont pas toutes prometteuses au même titre, on finance la recherche dans toutes les spécialités médicales.

 

Le CNRS est le plus gros centre scientifique d’Europe en nombre de chercheurs comme de publications scientifiques, avec un budget de 3,3 milliards d’euros. Sa productivité est difficile à évaluer faute de point de comparaison. Comparé à une Université, dont il n’a pas les missions d’enseignement, le CNRS est particulièrement productif sur le plan de la recherche. Comparé à l’INSERM, qui ne publie que dans les sciences biomédicales pour un budget proche d’un milliard d’euros, il l’est moins : mais on publie davantage dans les sciences du vivant que dans les sciences sociales, qui représentent une partie du domaine de compétence du CNRS.

Comme toutes les institutions publiques, le CNRS a son lot de comptabilité crapuleuse : il y a un an environ, deux affaires indépendantes éclatent, l’une touchant le laboratoire de météorologie dynamique, l’autre, l’Institut d’Histoire et de Philosophie des Sciences et des Techniques. Aucune de ces deux affaires récentes n’impliquait du personnel scientifique, mais chaque chercheur a entendu parler des mêmes histoires qui circulent sur tel collègue qui a confondu l’intérêt public avec ses intérêts propres. Les chercheurs ne sont ni plus, ni moins vertueux que les élus, des fonctionnaires, ou des gérants de société privée.

Ce qui distingue les chercheurs, c’est la nature particulière de leur activité : la recherche scientifique. Il est difficile d’estimer si l’on a avancé, mais facile de mesurer ce que l’on a publié. Inversement, il est facile de jouer sur la mesure et difficile de retrouver les traces de ce jeu.

Les scientifiques trichent-ils ?

Dans les sciences exactes, se dit-on, au moins, les résultats sont les résultats, et la fraude est facile à repérer : c’est un maquillage de chiffres. Les choses sont pourtant bien plus complexes. Le chercheur produit ces résultats : cela signifie que, dans une certaine mesure, il a la main sur la sélection des faits qui seront rapportés, sur l’instrument de mesure, sur les calculs qui seront conduits. Une partie importante de son travail consiste à choisir le dispositif expérimental qui lui donnera les résultats les plus nets – le chercheur dit, les résultats les plus « propres » – en faveur de l’hypothèse qu’il soutient. Ce travail ne consiste pas vraiment à maquiller un mort, c’est-à-dire, à modifier des chiffres a posteriori, mais plutôt, à maquiller une future mariée peu favorisée par la nature afin qu’elle ne soit pas rejetée à l’autel. Bref, l’impératif est de publier. Non pas parce que les scientifiques seraient devenus carriéristes et auraient oublié la noblesse de leur mission. Mais parce qu’on ne dispose pas, dans les territoires inconnus qu’explore le scientifique, de carte qui permet de savoir si l’on s’approche du but ou si l’on s’en éloigne. La publication est une reconnaissance par les pairs, non pas seulement de la rigueur de son travail, mais aussi, de son intérêt. Lorsque vous parvenez à publier un « beau papier dans Nature », c’est la sanction d’un fait important : votre hypothèse est jugée plausiblement proche d’un aspect important du phénomène que vous étudiez, par l’ensemble de la communauté scientifique de votre domaine.

Le chercheur produit ces résultats : cela signifie que, dans une certaine mesure, il a la main sur la sélection des faits qui seront rapportés, sur l’instrument de mesure, sur les calculs qui seront conduits.

Il arrive cependant, plus rarement, que l’on joue de la gomme ou que le crayon glisse dans le cahier où l’on consigne les résultats des expériences. Si ces cahiers n’ont pas été perdus, il est rare que les résultats reportés dans l’article ne coïncident pas avec ceux consignés dans le cahier. Si les résultats sont directement saisis dans un ordinateur, le tableur Excel ne garde pas la trace de la modification d’une valeur. Comment le contrôler ? On peut essayer de reproduire les résultats d’une expérience. Mais à cause de la variabilité du vivant, aucune reproduction d’expérience ne saurait réellement réfuter des résultats, du moins, s’ils n’ont pas été truqués au-delà de tout plausibilité.

Il ne fait pas de doute que cette pratique est proscrite. Les sanctions encourues par un chercheur qui se livre à cette forme brute de fraude sont assez importantes pour ruiner sa carrière scientifique. Il ne fait pas de doute que cette pratique est risquée. Le scientifique responsable d’une étude doit compter sur beaucoup de personnes pour conduire son expérimentation : des étudiants, du personnel technique, des collègues. Ses fraudes ne se font pas dans un coin, inaperçues de tous ; elles finissent par être connues. Il ne fait pas de doute enfin que cette pratique est détestée, et non tolérée, dans le milieu de la recherche. Elle heurte frontalement les convictions presque universelles des chercheurs, qui tous ont accepté, du moins dans un certain nombre de pays comme la France, des carrières moins bien payées que ce à quoi leurs aptitudes auraient pu leur faire aspirer, parce qu’ils aiment la science.

Il ne fait pas de doute que cette pratique est proscrite. Les sanctions encourues par un chercheur qui se livre à cette forme brute de fraude sont assez importantes pour ruiner sa carrière scientifique.

Ces cas ne sont donc pas les plus fréquents, ni les plus difficiles à juger. Que dire, par exemple, de la décision d’éliminer les résultats jugés aberrants, observés sur quatre souris sur les 40 que comporte l’expérimentation ? Il peut y avoir eu des facteurs de confusion inobservés. Ou pas. Il faut bien décider, soit d’intégrer ces résultats au risque de salir une expérimentation bien menée sur les 36 autres souris, soit de les rejeter au risque de déplacer indûment la moyenne observée parce qu’elle correspond mieux aux a priori du chercheur.

Les managers de la science

Selon un article récent de la revue Nature, les résultats de 90 % des essais cliniques menés par des chercheurs du monde académique ne sont pas reportés ou publiés. L’explication ne fait pas de doute : c’est que les résultats sont décevants ou ne permettent pas de conclure en faveur de l’hypothèse testée – le plus souvent, qu’un traitement est efficace ou qu’un test diagnostique ou pronostique est fiable. C’est ce que l’on appelle le biais de publication, c’est-à-dire, le fait que les journaux n’acceptent en général de publier que les résultats « positifs » qui viennent appuyer une thèse. Lorsque l’on cherche donc à agréger et fusionner les résultats de multiples essais sur une même molécule thérapeutique en une « méta-analyse », on ne trouve que des résultats positifs et l’on conclut que l’effet moyen du traitement est bien supérieur à ce qu’il est en réalité.

Qui triche dans ces circonstances ?

Beaucoup accusent le système de la course à la publication, le « management » de la science, le système de financement de la recherche par des agences de moyens, la concurrence acharnée entre équipes, la partialité des comités de lecture des revues scientifiques, le rôle de l’industrie. Mais de même qu’un bon manager du secteur privé n’est pas nécessairement un manager qui maximise le profit de sa société sur le court terme, de même, le scientifique doit se doubler d’un stratège. Dans le domaine de la recherche contre le cancer, par exemple, les dispositifs expérimentaux comportent de nombreux biais connus. Les modèles de cancers induits qu’on utilise couramment sont très artificiels, mais ils fonctionnent bien avec un haut degré de reproductibilité. Les résultats ne sont peut-être pas représentatifs du cancer « analogue » chez l’humain. Mais ils sont « propres », faciles à publier, et peu chers à produire. Un chercheur stratège peut ainsi décider de « faire du volume » et de publier tous ses articles en s’appuyant sur ce modèle qu’il maîtrise bien, mais dont il connaît les limites. Est-il un tricheur ? Non. Pourtant, il sait le peu d’intérêt des résultats qu’il publie et, paradoxalement, sans avoir triché au sens littéral, il participe d’un système qu’il estime absurde et, pour ses pairs, trahit sans doute certains des idéaux de la science.

Un chercheur stratège peut ainsi décider de « faire du volume » et de publier tous ses articles en s’appuyant sur ce modèle qu’il maîtrise bien, mais dont il connaît les limites. Est-il un tricheur ?

L’alternative serait que le chercheur accepte de publier peu mais de s’appuyer sur des modèles plus coûteux en temps, argent, aléas des résultats. Il prend alors le risque de devoir mettre la clé sous la porte assez vite, faute de crédits. C’est pourtant l’idéal de bien des chercheurs : on comprend bien pourquoi. C’est la raison pour laquelle certains s’opposent au système des agences de moyens, qui financent au coup par coup, sur projet, les travaux des scientifiques, plutôt que de distribuer l’argent de manière uniforme pour que chacun poursuive ses travaux indépendamment des autres et sans avoir à se soucier de les faire briller pour séduire et obtenir un financement.

Les plus stratèges des chercheurs ne sont cependant pas les plus carriéristes. Ils parviennent à trouver la bonne proportion entre la publication de résultats faciles et la recherche de résultats plus difficiles. Ils obtiennent ainsi les financements pour des recherches « vitrines » faciles à publier, et poursuivent aussi sur leurs crédits des hypothèses un peu plus risquées, mais potentiellement beaucoup plus intéressantes. Ces managers de la science trichent en un sens avec un système déjà biaisé. Ils trichent en quelque sorte par une sorte d’hypocrisie, mais ils ne trichent pas avec la science elle-même.

L’aréopage du CNRS

L’ambiance de suspicion est extrêmement délétère pour la direction des établissements de recherche comme le CNRS ou l’INSERM. Elle menace directement la confiance de nos concitoyens en la recherche, et, en voie de conséquence, les crédits qui leur seront alloués dans les années à venir. Si un de ces établissements publics venait à ternir sa réputation au-delà d’un certain point, il se pourrait qu’il soit fermé par le politique en réponse aux pressions de l’opinion publique.

Ce problème est donc pris très au sérieux en haut lieu. Récemment, le PDG du CNRS, Antoine Petit, a nommé un « déontologue » et un « responsable intégrité scientifique ». L’un et l’autre sont des scientifiques. Le premier, Joël Moret-Bailly, est juriste, spécialiste des déontologies. Il se voit confier une mission de conseil. Le second, Rémy Mosseri, est physicien. Sa mission est de médiation : elle consiste à décrédibiliser les dénonciations anonymes – qui pourraient être le fait de simples jalousies – en obligeant les dénonciateurs à s’identifier, mais en leur garantissant un anonymat public. En contrepartie, ce responsable est doté de pouvoirs de médiation, mais aussi d’enquête. L’ensemble de ces procédures sont épaulées d’une mission officielle de « lanceur d’alerte ».

La limite de ces mesures bien intentionnées, c’est bien sûr que ces dispositifs restent internes au CNRS, même s’ils sont censés être indépendants de la direction de cet établissement. Le système français est encore trop marqué par les apparences d’une élite étriquée, crispée sur la conservation de ses avantages. Sans remettre en question l’honnêteté, la compétence et l’impartialité des personnes, il était décrédibilisant pour l’ensemble des institutions que la ministre de la Santé et le directeur de l’INSERM aient pu être partenaires dans la vie. De même, s’il faut connaître la science pour juger correctement des difficultés liées à l’intégrité scientifique, il est indispensable de ne pas être chercheur soi-même pour en juger en toute impartialité. Un juge qui se spécialiserait dans ces problèmes posés par la recherche inspirerait davantage la confiance au grand public, qu’un chercheur qui s’improvise responsable de l’intégrité scientifique, et qu’on pourrait retrouver un peu plus tard dans sa carrière à d’autres fonctions au sein de son institution.

Les chercheurs, dont je fais partie, ne doivent pas tomber dans le piège des déontologies « internes », où l’on se juge entre soi. A l’instar du Conseil de l’Ordre des Médecins, de telles instances ont leur utilité. Mais de même que certaines dimensions importantes de l’activité des médecins ne sauraient se soustraire au regard extérieur du juge, de même, l’activité des chercheurs relève aussi, dans une certaine mesure, de la compétence du juge, fut-il assisté d’experts.

Les chercheurs, dont je fais partie, ne doivent pas tomber dans le piège des déontologies « internes », où l’on se juge entre soi.

Conclusion

Les problèmes d’intégrité de la science sont des problèmes de riches. Ils ne se posent que parce que le financement de la recherche est colossal, parce que les moyens d’investigation sont parfois extrêmement coûteux et, par conséquent, rares. La recherche est un luxe : nous sommes incroyablement chanceux qu’elle soit financée généreusement. Le problème de l’intégrité se pose seulement parce que la quantité de faits à découvrir mis à notre portée par nos techniques est peut-être trop étroite au regard du nombre de chercheurs dont nous disposons, nombre aujourd’hui bien plus grand qu’il ne l’a jamais été dans l’histoire de l’humanité. Cette rareté du fait à découvrir expliquerait, à sa racine, le problème de l’intégrité scientifique.

Du temps de Léonard de Vinci, l’intégrité scientifique portait sur la discipline que vous choisissiez : la mécanique, peu lucrative, mais sérieuse, ou bien l’astrologie. C’est toujours vrai de nos jours. Mais au sein des disciplines sérieuses, il en est qui sont plus fertiles que d’autres en résultats, mais peut-être beaucoup moins qui sont fertiles en résultats pertinents. Même si elles ne sont pas toutes prometteuses au même titre, on finance la recherche dans toutes les spécialités médicales. Et si certaines obtiennent bien plus de fonds que d’autres, ce n’est pas en proportion de leurs résultats, réels ou potentiels, mais en proportion des espoirs qu’elles suscitent. Les chercheurs s’y concentrent naturellement. Et s’ils ne trouvent pas de résultats, ils doivent cependant au moins prouver qu’ils cherchent activement.

 

par Maël Lemoine