Accueil > Évaluation / Bibliométrie / Primes > Évaluer la recherche aujourd’hui. Logiques sociales et politiques du jugement (...)

Évaluer la recherche aujourd’hui. Logiques sociales et politiques du jugement scientifique - Clémentine Gozlan, La Vie des Idées, 8 septembre 2020

dimanche 13 septembre 2020, par Laurence

Si l’évaluation par les pairs relève de pratiques routinières de l’activité scientifique, elle est depuis vingt ans devenue un outil de gouvernement des conduites des universitaires autant qu’un instrument dans la reconfiguration du pouvoir scientifique.

L’évaluation s’est imposée de longue date comme mode de régulation central du monde scientifique. Dès le XVIIIe siècle, les publications de recherche commencent à être soumises à l’évaluation « par les pairs » ou « peer review » (Gingras, 2014), dans le contexte de l’émergence des revues scientifiques qui visent à diffuser les connaissances produites par les savants aux cercles d’intéressés. Le terme de « peer review » désigne l’activité collective de jugement critique, par des chercheurs, des travaux de leurs collègues. L’évaluation de la recherche fait partie intégrante des pratiques des universitaires et des chercheurs, qui, à différents moments de leur carrière, sont évalués et expertisent l’activité de leurs pairs. Les organisations où travaillent les scientifiques sont également évaluées : l’une des missions du Comité national de la recherche scientifique (CoNRS), créé à la fin de la seconde guerre mondiale, est en effet d’évaluer les chercheurs et les équipes de recherche.

Le jugement est donc omniprésent et ritualisé dans la profession scientifique. L’évaluation de la recherche est même une activité routinière, familière aux chercheurs et inscrite dans leur quotidien de travail. Depuis le milieu des années 2000, les pratiques d’évaluation se transforment et font l’objet d’importantes critiques. Comment et pourquoi ? À partir de mes travaux d’enquêtes en sciences sociales [1], je propose d’éclairer les raisons de la colère contemporaine contre les modes d’évaluation de la recherche. Dans le contexte actuel de préparation d’une nouvelle loi de programmation de la recherche, il est utile de comprendre l’émergence de ces critiques, pour mesurer l’ampleur des changements apportés depuis une quinzaine d’années par les dispositifs d’évaluation du travail des chercheurs, et les logiques sociales et politiques renouvelées de cette pratique fort ancienne.

Les nouveaux usages d’une pratique ancienne

L’enquête montre que les critiques que les chercheurs adressent à l’évaluation ne portent pas tant sur le principe même de l’évaluation, consubstantielle à l’activité scientifique, qu’elles ne ciblent ses usages contemporains, les finalités et les formes renouvelées qu’elle prend au tournant du XXIe siècle. En effet, les années 2000 voient la création de deux nouvelles agences. L’Agence Nationale pour la Recherche (ANR), qui systématise le financement de la recherche sur projets, et l’Agence d’Évaluation de la Recherche et de l’Enseignement Supérieur, qui évalue l’ensemble du dispositif d’enseignement supérieur et de recherche [2]. La création de cette agence s’inscrit dans une séquence de réformes inédites de l’enseignement supérieur et de la recherche (Ravinet, 2012) qui, depuis le milieu des années 2000, font de l’évaluation de la performance et de la concentration des fonds sur les « meilleurs » les pièces maitresses du nouveau système de gouvernement de la science. L’évaluation de la recherche a une place de choix dans ces réformes : une partie des crédits des organisations universitaires est supposée être indexée sur les résultats de l’évaluation, comme dans d’autre pays, tels que la Grande-Bretagne – où c’est le cas depuis la fin des années 1980.

Dès lors que l’évaluation devient un instrument au service de l’ « excellence », tel que ce terme est employé depuis les années 2000, elle peut être mobilisée par les décideurs comme un outil permettant de hiérarchiser les sites de recherche, en allouant les ressources à un nombre restreint d’équipes et de chercheurs, au détriment de l’ensemble de la communauté scientifique. En effet, si la compétition est un des piliers du monde scientifique [3], et si l’on trouve depuis plus longtemps en France des traces d’un discours politique sur la nécessaire répartition inégalitaire des ressources et le « darwinisme » en science [4] – selon lequel seul.e.s les meilleur.e.s survivront dans la course aux crédits scientifiques, et recevront d’importantes primes – jamais ce discours n’avait été revendiqué à la fois si publiquement par divers acteurs du gouvernement de la recherche, et surtout, jamais n’avaient été mis en œuvre les moyens pour qu’une telle inégalité scientifique s’instaure et s’accentue.

Parmi les outils de ce pilotage renouvelé de la recherche, mentionnons l’attribution de notes aux laboratoires de recherche et le calcul d’indicateurs de performance scientifique comme le taux de « publiants », c’est-à-dire le taux de chercheurs et enseignants-chercheurs jugés actifs en recherche, en fonction du nombre d’articles qu’ils publient. Notes et indicateurs ne sont pas des inventions de l’AERES : ils lui préexistent, au ministère de la recherche, d’au moins dix ans (Gozlan 2020), mais leur place dans le dispositif de gouvernement de la recherche se transforme cependant, en raison de la publicité nouvelle qui est donnée à ces outils d’évaluation.

En effet, depuis la création de l’AERES, l’intégralité des rapports d’évaluation et des notes attribuées aux laboratoires est rendue publique, ce qui n’était pas le cas des évaluations conduites par d’autres instances auparavant. Cette visibilité peut transformer le sens et l’usage des évaluations : outils de stigmatisation potentielle – si les notes sont mauvaises – elle deviennent des outils de benchmarking (Bruno et Didier, 2013), c’est-à-dire des technologies de gouvernement fondées sur la comparaison, incitant les chercheurs à répondre aux injonctions implicites contenues dans les critères d’excellence pour se positionner dans cette course à la performance. L’évaluation devient ainsi un instrument central de gouvernement des conduites des universitaires.

Ensuite, les notes n’ont pas seulement des conséquences symboliques : elles sont employées comme clé de répartition budgétaire, selon un coefficient qui favorise les équipes les mieux notées. Dans le cadre de la loi Liberté et Responsabilité des Universités (LRU) (2007), un nouvel outil d’attribution des crédits universitaires a été bâti. L’algorithme « SYMPA », pour « Système de répartition des Moyens à la Performance et à l’Activité », calcule ainsi la dotation globale à attribuer aux universités, dans laquelle comptent pour une part les notes attribuées par l’AERES aux laboratoires de recherche affiliés à l’université considérée.

Ainsi, les instruments d’évaluation ne sont pas à envisager seuls, mais comme éléments d’un système : l’évaluation peut devenir un instrument de pilotage des ressources humaines de l’université, y compris dans le cadre des débats sur la « modulation des services » des enseignants-chercheurs. Évoquée dès le début des années 2000, cette question est au cœur du projet de réforme du statut des enseignants-chercheurs annoncé à la fin de l’année 2008. Il prévoit des décharges d’enseignement ou une augmentation du nombre d’heure de cours, en fonction notamment de l’implication des personnels dans des activités de recherche.

Pour lire la suite


[1L’enquête s’est déroulée entre 2011 et 2016. J’ai étudié la mise en place d’une nouvelle instance d’évaluation scientifique, l’AERES (2007-2014) et les controverses que cette agence soulève, au moyen d’un corpus d’une centaine d’entretiens, d’archives privées et publiques, d’observations participantes, et en construisant une base de données sur les trajectoires des membres de l’agence qui refondent les critères d’évaluation de la recherche.

[2En 2014, elle est devenue le Haut Conseil de l’Évaluation de la Recherche et de l’Enseignement Supérieur (HCERES).

[3Pour ne donner qu’un exemple de la course à la découverte et aux crédits scientifiques, symboliques et financiers, rappelons la lutte entre Newton et Leibniz sur la paternité du calcul infinitésimal. Voir également Merton, 1968.

[4Alors conseiller spécial de Lionel Jospin, C. Allègre proposait dès le début des années 1990 de faire émerger des pôles d’excellence universitaires.