[In English here]

La science ouverte est devenue, ces dernières années, une véritable voie de l’histoire. Peu de voix s’élèvent pour contester ses généreux principes de communication, de coopération et de partage sans limites. Néanmoins, ce bel idéal est toujours confronté à des difficultés concrètes que l’on peut énumérer, mais qui sont toutes inhérentes aux difficultés découlant des changements profonds des mentalités. Comme dans toutes les révolutions, même les plus pacifiques, qui bouleversent des principes fondamentaux, la difficulté est pour ceux qui osent d’abord changer les choses, au risque de mettre en péril leur propre avenir et celui de leur entourage.

Cette difficulté provient du fossé entre l’érection de nouveaux principes qui rompent avec la tradition et l’appréciation positive qui en est faite par tous, en particulier par ceux qui ont le pouvoir de récompenser et de sanctionner.

Avant de s’engager sur une voie nouvelle, même moralement et éthiquement attrayante, les gens ont besoin de savoir si elle sera comprise, encouragée et reconnue.

C’est pourquoi la Science Ouverte, dans toute sa variété de composantes et quel que soit l’enthousiasme général qu’elle suscite, n’aura aucune chance d’être mise en œuvre si l’évaluation des chercheurs ne cesse d’être basée sur des critères de productivité calqués sur ceux du monde industriel. De plus, une simple déclaration de principe ne suffira pas tant qu’une nouvelle approche ne sera pas devenue réalité et n’aura pas été vérifiée et prouvée, donc tant que les chercheurs n’auront pas pleinement confiance dans les principes du jugement auquel ils vont être soumis.

La recherche est pure créativité et elle ne peut être mesurée par des méthodes productivistes.

Le nombre brut de publications, les facteurs d’impact – et leurs dérivés comme le h-index – qui sont autant d’incitants à une surproduction dommageable, donc d’une baisse de la qualité moyenne, mais aussi d’un égoïsme exacerbé, doivent être abandonnés, même si cela rend l’évaluation beaucoup plus laborieuse, plus complexe et plus longue : une juste évaluation des carrières de recherche en vaut largement la peine.

Un consensus doit être adopté par un très grand nombre de lieux où l’on procède à des évaluations, dans les universités mais aussi dans les organismes de financement et dans tout comité d’évaluation dans le monde entier.

Impliqué depuis longtemps dans la problématique des prérequis de la Science ouverte, je crois pouvoir, modestement, donner quelques conseils indispensables à la mise en œuvre efficace de cette nouvelle approche. Je les résumerai comme suit :

1. Utilisez toujours un canevas à critères multiples tels que l’OS-CAM (Open Science Career Assessment Matrix) inclus dans l’Open Science Toolbox de la Commission Européenne). Veillez à adapter cette grille matricielle aux spécificités du domaine de recherche (comme expliqué ici, au chapitre 6),

2. Classez les critères par ordre d’importance en fonction de vos objectifs spécifiques (compétences attendues, mérites, réalisations), et veillez à favoriser les objectifs de la Science Ouverte.

3. N’utilisez jamais d’indicateurs indirects et/ou peu pertinents tels que le nombre absolu de publications, les facteurs d’impact des revues ni leurs produits dérivés. En règle générale, n’utilisez pas de chiffres ou de mesures numériques.

4. Demandez à la personne évaluée de sélectionner au maximum une publication par an qu’elle considère comme la meilleure.

5. Veillez à ce que la personne évaluée remplisse d’abord elle-même la grille. Vérifiez que toutes les notes d’évaluation sont justifiées. Si ce n’est pas le cas, faites une enquête auprès de l’entourage proche de la personne évaluée.