Rutgers Professors Oppose Academic Analytics | Inside Higher Ed

L’externalisation du « benchmarking » interpelle quant à l’autonomie en voie de disparition des universités. La redéfinition de ces dernières en entreprises ou, à tout le moins, en organisations sommées de se comporter comme des entreprises et de se légitimer de la même manière, réduit les universitaires à des exécutants. Leurs tâches (recherche et enseignement) et les contenus de celles-ci se voient désormais de plus en plus définis par rapport à des critères idéologiquement connotés. Depuis une trentaine d’années, on assiste à la lente érosion de tout ce qui isolait l’université de son environnement mais qui, simultanément autorisait la survie d’une idée de la science non complètement asservie  à la raison utilitariste. En s' »ouvrant » au monde extérieur (selon une pieuse formule qui a depuis longtemps fait fortune), l’université se voit davantage influencée par les valeurs dominantes de la société neo-libérale qu’elle n’apporte à celle-ci raison critique et outils de transformation.

 

via Rutgers Professors Oppose Academic Analytics | Inside Higher Ed.

Voir aussi http: http://www.academicanalytics.com

Classement des meilleures universités de France : un bel exemple d’inanité.

Que penser de gouvernements, d’élus, de hauts fonctionnaires, de prétendus experts qui réduisent la notion de qualité à des statistiques insignifiantes ? Voici un article qui illustre bien l’obsession de réduire tout et n’importe quoi à une accumulation de chiffres et à des comparaisons de pourcentages. En l’occurrence, l’apprentissage et la maîtrise de connaissances complexes se voient jugés non pas relativement au contenu de ces connaissances ni à la qualité de ce contenu. On peut aussi décider qu’une université est plus ou moins bonne en fonction d’un improbable « taux d’insertion » des diplômés qui, non seulement ne dit rien du contexte spécifique des universités considérées, mais encore conforte dans l’esprit du grand public l’idée selon laquelle la connaissance (universitaire et scientifique en particulier) n’a de sens qu’en fonction de sa capacité à servir l’idée que tout est marché, que tout est économie, que tout est rentabilité ou efficacité.

via Classement des universités 2015 : quelle est la meilleure fac de France ? [PALMARÈS] – Linternaute.

The Metric Tide: Report of the Independent Review of the Role of Metrics in Research Assessment and Management

Par delà la confirmation de la volonté de tendre vers une gouvernance par la mesure, un nouvel élément interpellant dans l’analyse des transformations de l’université : comment le discours de professeurs d’université sur l’université semble ne pouvoir être légitimée qu’en se présentant – en apparence du moins – comme indépendante de l’université !

Governing by Numbers

via Impact of Social Sciences – HEFCEmetrics Review.

Voir également

http://blogs.lse.ac.uk/impactofsocialsciences/2015/07/13/the-metrics-dilemm

http://blogs.lse.ac.uk/impactofsocialsciences/files/2015/07/2015_metrictide.pdf

Impact factors and academic careers: insights from a postdoc perspective

Les facteurs d’impact : sous le couvert d’évaluation rationnelle de la recherche scientifique, celle-ci se voit de plus en plus assujettie à l’arbitraire et à des intérêts ambigus.IMAG0937-620x342

via Impact factors and academic careers: insights from a postdoc perspective – BioMed Central blog.

Voir aussi

GRUBER, T., Academic Sell-Out: How an Obsession with Metrics and Rankings Is Damaging Academia,
Journal of Marketing for Higher Education, v24 n2 p165-177 2014
Abstract  « Increasingly, academics have to demonstrate that their research has academic impact. Universities normally use journal rankings and journal impact factors to assess the research impact of individual academics. More recently, citation counts for individual articles and the h-index have also been used to measure the academic impact of academics. There are, however, several serious problems with relying on journal rankings, journal impact factors and citation counts. For example, articles without any impact may be published in highly ranked journals or journals with high impact factor, whereas articles with high impact could be published in lower ranked journals or journals with low impact factor. Citation counts can also be easily gamed and manipulated, and the h-index disadvantages early career academics « 

Evaluation de la qualité de l’enseignement : « Objections to the OECD’s AHELO »

https://www.insidehighered.com/quicktakes/2015/06/05/objections-oecds-ahelo

The American Council on Education and Universities Canada have reiterated their longstanding opposition to the Organization for Economic Cooperation and Development’s AHELO (Assessment of Higher Education Learning Outcomes) project, an effort to measure teaching quality globally that is often described as a higher education equivalent of the K-12 level Program for International Student Assessment (PISA). In a May letter to OECD’s secretary-general, the American and Canadian presidential associations objected to a “one-size-fits-all” approach to outcomes assessment worldwide.

“The AHELO approach fundamentally misconstrues the purpose of learning outcomes, which should be to allow institutions to determine and define what they expect students will achieve and to measure whether they have been successful in doing so. AHELO, which attempts to standardize outcomes and use them as a way to evaluate the performance of different institutions, is deeply flawed,” states the joint letter from ACE and Universities Canada.

The letter also objects to the process behind the AHELO project and to what the associations describe as an “unwillingness to openly hear the views of institutional leaders.”

OECD’s press office declined to comment on the letter on Thursday. In a blog entry recently published in Inside Higher Ed, the Toronto-based higher education consultant Alex Usher described some of the criticism of AHELO on the part of higher education associations in the West as “a defense of privilege: top universities know they will do well on the comparisons of prestige and research intensity, which are the bread and butter of the major rankings. They don’t know how they will do on comparisons of teaching and learning. And so they oppose it, and don’t even bother to suggest ways to improve comparisons.”