Accueil > Évaluation / Bibliométrie / Primes > "Parce que je le vaux bien" > Voyage en absurdie : les rankings des universités - Le Soir, ’Carta (...)

Voyage en absurdie : les rankings des universités - Le Soir, ’Carta Academica’, 29 août 2020

lundi 31 août 2020, par Mariannick

Shanghai, nombre de prix Nobel, h factor, fraude, concurrence échevelée, santé mentale des doctorants… tout y est.

À lire ici.

Durant la période estivale et sa diète de nouvelles « juteuses » les médias font leurs choux gras des classements. C’est l’époque où l’on désigne le footballeur de l’année, l’acteur le mieux payé au monde, l’homme (c’est rarement une femme) qui a amassé la plus grosse fortune, et d’autres classements encore. C’est aussi l’époque où, chaque année depuis 2003, le Shanghai Ranking Consultancy publie les « Shanghai Rankings ». L’édition 2020, publiée le 15 août, a classé Harvard University en numéro un, et deux universités belges (UGent et KULeuven) dans les 100 premiers.
Les médias se sont jetés sur ce classement. Certains ont même été jusqu’à titrer « Harvard est la meilleure université au monde, UGent la meilleure université belge ». Et les recteurs des universités belges qui ont progressé par rapport à leurs concurrentes de bomber le torse par communiqués interposés. Ils se taisent, par contre, dans toutes les langues lorsqu’ils régressent.
[…]
Les critères de performance scientifique ont fait leur irruption dans le monde scientifique au début des années 2000, et ont envahi tous les aspects de la recherche : évaluation individuelle du chercheur par le fameux h-index (1), évaluation de chaque revue scientifique par le Facteur d’Impact (FI), évaluation des universités par les rankings. Cette irruption était soutenue par les pratiques managériales du New Public Management qui ont envahi nos universités et nos services publics. « Any number beats no number » était le nouveau leitmotiv, ce que l’on peut traduire par « Donnez-moi un nombre, quel qu’il soit ». Le rêve des évaluateurs et des décideurs ! Un seul chiffre (le h-index) permet d’affirmer que tel chercheur est meilleur qu’un autre.
[…]

Des critères objectifs…

Des experts en évaluation scientifique ont élaboré des critères de qualité auxquels doivent répondre les rankings des universités sous peine de perdre toute crédibilité. C’est ainsi que cinq critères ont été proposés par Yves Gingras [1] et Michel Gevers [2] . Sans entrer dans les détails, assez techniques, ils précisent que l’indicateur de performance utilisé doit être en adéquation avec l’objet qu’il mesure : il doit tenir compte de l’inertie de l’objet mesuré (la qualité d’une université ne change pas en une année) ; il doit être homogène (2) ; il doit être insensible à de petites variations dans les données et ne peut donc être basé sur de tout petits nombres ; il doit enfin être normalisé par rapport à la discipline, la taille de la communauté scientifique correspondante et la période.
… violés par le ranking de Shanghai

À titre d’illustration, un ranking qui aurait pour effet qu’une université dépasserait, en un an de temps, 40 de ses concurrentes parce qu’un de ses professeurs a obtenu un Prix Nobel pour un travail effectué 30 ans plus tôt violerait plusieurs de ces critères.

À l’exception du U-Multirank, les rankings qui ont pignon sur rue violent plusieurs de ces cinq critères de qualité. Le ranking de Shanghai les viole tous. L’attention que lui portent encore aujourd’hui les médias et pas mal de responsables universitaires est dès lors atterrante. Elle souligne la dérive managériale qui pèse sur l’Université comme sur nombre d’institutions de service public et montre à quel point la fascination du nombre est un piège puissant.

Si l’université ne retrouve pas ses valeurs, elle périra comme la grenouille

Lire la fin ici.


[1Yves Gingras, Bibliometrics and research evaluation : Uses and abuses, MIT Press, 2016.

[2Michel Gevers, Scientific performance indicators : a critical appraisal and a country by country analysis, in Bibliometrics : Use and Abuse in the Review of Research Performance, Blockmans, Wim, Engwall, Lars and Weaire, Denis (eds.), Portland Press, London, 2014.


Fatal error: Call to undefined function lire_config() in /home/clients/a1e31efb9d27af72e25ac786c8fcf5f1/web/plugins-dist/svp/base/svp_declarer.php on line 58