Accueil > Revue de presse > Quand les chercheurs décortiquent leur évaluation - Clémence Holleville, (...)

Quand les chercheurs décortiquent leur évaluation - Clémence Holleville, Médiapart, 27 mars 2009

vendredi 27 mars 2009, par Laurence

« L’expression qui revient, c’est "ça s’est plutôt bien passé". Mais c’est ça qui est frappant : le niveau d’inquiétude généré par ces évaluations, à quel point ces instances nous fragilisent, nous donnent l’impression d’être toujours en faute ! » A l’Ecole des hautes études en sciences sociales (EHESS), le débat sur l’Agence d’évaluation de l’enseignement supérieur et de la recherche (AERES) bat son plein. L’intervention de Liora Israël, maître de conférences en sociologie, sent le vécu. Et pour cause : l’EHESS, elle, sort tout juste de sa propre évaluation. Ou disons que le plus gros est passé : un tiers des laboratoires doit encore recevoir la visite de ces comités composés de personnels de l’AERES, mais aussi d’autres chercheurs, nommés pour l’occasion.

Rien d’étonnant donc au choix de l’AERES comme thème de ce débat à l’EHESS. Alors que la question de l’évaluation fait rage dans la contestation actuelle, cette agence mise en place en 2007 dans le but de noter les laboratoires concentre les colères. Déjà, dans la salle, un accent étranger s’élève : « Lors de cette visite, on ne nous a posé aucune question sur le contenu de nos travaux ! C’était sur l’ambiance, les bourses... On nous a même demandé si c’était difficile d’écrire une thèse en français. » Si cette jeune doctorante décrit un moment « humiliant », le bilan que font les intervenants est plus tempéré, mais non dénué de préoccupation. En bons chercheurs, ils analysent à leur manière cette évaluation dont ils viennent de faire les frais. Certaines critiques ne sont pas nouvelles, comme la dépendance de l’agence vis-à-vis du ministère, l’infantilisation qu’elle génère ou encore la prise en compte de critères plus quantitatifs que qualitatifs. Reste que l’expérience de ces chercheurs « évalués » apporte un nouvel éclairage.


L’évaluation décortiquée par les chercheurs de l’EHESS.

Qui sont les « évaluateurs » ? Le sociologue Nicolas Dodier dresse leur profil, en décrivant des êtres acquis à la doctrine du management, une attitude partagée entre l’ouverture à la critique et la référence ferme à un cadre, un regard rivé sur l’Europe ou encore un code vestimentaire nouveau... Et d’établir une liste comparant l’« objectivité » de l’AERES et celle de l’ancien système d’évaluation, dit « d’objectivité collégiale » : des petites sessions de chercheurs, réunis sur mandat, évaluant leurs pairs. Le verdict est sans appel. Si les inconvénients de l’ancien système sont pointés, l’évaluation type AERES soulève, selon lui, des problèmes majeurs : gaspillage des compétences des collègues se contentant d’appliquer une grille d’évaluation, dérive vers la dérégulation dans un contexte où l’évaluation ne passe plus par la confrontation à une communauté de référence. « La pauvreté des échanges scientifiques lors des visites en est un indicateur », estime-t-il.

« L’AERES exacerbe les tensions internes à notre monde »

Tous le répètent : ce n’est pas l’évaluation le problème, mais bien la façon dont elle s’exerce. L’anthropologue Benoît Hazard évoque quant à lui le passage à une « gouvernementalité de la recherche », où la notation porte plus sur la gestion des centres de recherche que sur les contenus scientifiques eux-mêmes. Une démarche qui a conduit, selon lui, à un « grand nettoyage d’automne », l’école ayant vu son nombre d’unités réduit. Le chercheur déplore encore l’absence des grilles d’évaluation de lieux d’innovations, tels que les programmes de recherche interdisciplinaire (PRI) et programmes prévisionnels de formation (PPF). Paradoxe : ne pouvant être évalués, ils sont à terme menacés dans leur financement. Enfin, la charge de travail et le coût économique représenté pour ces scientifiques à qui l’on demande de noter les autres induisent un rapport différent au travail, estime Benoît Hazard. Qui conclut sur l’inquiétude « pas complètement infondée » de ses collègues sur la « dérive expertocratique » de ce système d’évaluation.

C’est là que le bât blesse : « Les experts de l’AERES, c’est nous », reconnaît Pierre Judet de la Combe, directeur de recherche au CNRS et directeur d’études cumulant à l’EHESS histoire et philologie classique. Car le problème de l’évaluation, c’est aussi la division qu’elle révèle au sein des chercheurs eux-mêmes. Division certes pas nouvelle : « L’AERES exacerbe les tensions internes à notre monde », ajoute Pierre Judet de la Combe. Qui évoque un des rares heurts lors de l’évaluation, quand un comité a rendu visite à une équipe rivale. De quoi alimenter le malaise de ces scientifiques, dont la « communauté » reste, de fait, factice. Les piques échangées à la fin du débat, par Christian Topalov, directeur d’études à l’EHESS, et Patrice Bourdelais, de l’EHESS aussi, mais devenu coordinateur des sciences humaines et sociales à l’AERES, en fournissent un exemple.

« C’est un rapport de force, pas une conversation de salon. Eux, ils ont le pouvoir de nous forcer à nous soumettre à leurs critères », sort de ses gonds Christian Topalov. « Le fameux "ça s’est bien passé" a une raison simple : c’est pas là que ça se passe ! Ce système a la propriété fabuleuse de nous faire croire que ce sont des collègues qui nous évaluent, alors que ce sont des professionnels qui nous notent ! »
« Les débats que vous avez ici, nous les avons aussi entre nous », tente d’argumenter le représentant de l’agence. Qui reconnaît les défauts de l’AERES : les PPF auraient dû, par exemple, rentrer eux aussi dans les grilles d’évaluation. Mais il pointe aussi un rapport à double sens, dans lequel certaines équipes évaluées ont profité de l’occasion : « Elles ont été capables d’instrumentaliser l’évaluation contre leur tutelle [l’institution dont ils dépendent], ou pour faire apparaître leurs besoins. Ce n’est pas ce que j’appelle de l’infantilisation. »

Diviser pour mieux régner ? Pour les chercheurs opposés à ce système d’évaluation, la lutte continue. « L’objet des comités de visite est de nous éduquer à la culture de l’évaluation », analyse Christian Topalov. « Mais aujourd’hui, le mouvement à l’extérieur nous donne un brin d’espoir : cette logique, nous pouvons l’arrêter ! »