財團法人高等教育評鑑中心基金會  

 

大學排名與排行榜:全球觀點
文/Jamil Salmi*
  聯合國世界銀行高等教育部整合領導人
  (Tertiary Education Coordinator, World Bank)
  Roberta Malee Bassett*
  聯合國世界銀行高等教育部研究專員
  (Tertiary Education Specialist, World Bank)
譯/蔡小婷

William Thomas曾道:「如果人們把一件事情視為真的,那最後它就會是真的。」就像如雨後春筍般冒出的大學排名與排行榜,人們賦予它們合法性,就是這句話最好的例子。

大學排名隨績效責任運動(accountability movement)應運而生

美國高等教育大眾化(massification)的趨勢,是大學排名興起的重要時代背景。1983年迄今是大學排名蓬勃發展的時代,此時就讀大學的人口激增,高等教育背負的績效責任壓力也越形沈重,高等教育的大眾化使得社會更渴切得知大學辦學品質的相關資訊,績效責任變成了大學運作的治理箴言;加上經濟衰退致使政府挹注高教的經費縮減,高等教育品質因而受到更縝密的檢視,高等教育相關人士(stakeholders)也希望獲得更便捷豐富的資訊,以瞭解高等教育的價值。在龐大的市場趨力下,瞭解大學辦學品質與表現的需要越來越殷切,量化與資料導向的工具例如排名,便應運而生。

當越來越多的學生想要進入大學之門,1983年首先由《美國新聞與世界報導》(U.S. News and World Report)出版了「美國最佳大學排名」(America’s Best Colleges),提供了他們方便的、直接的資訊,讓他們用以做為選擇大學之參考。其後在2003年上海交通大學公布的「世界大學學術排名」(Academic Ranking of World Universities, ARWU),不但推動了大學排名的發展,使其成為家喻戶曉的概念,也成為政策決定的參考之一。且上海交大又將排名的層次帶到另一個層級,把比較範圍從全國擴大到全球。當2004年英國泰晤士報(The Times)也公布「世界大學排名」,全球大學排名至此確立。

如今,排名已確實存在,也使得高等教育界變得更大、卻也同時變得更小。然而,在一片混亂的各種大學排名中,要做出具公信力的排名,需要面臨許多挑戰。

方法的限制

不管大學排名面臨多少爭議,其受到廣大的歡迎是不爭的事實,全球各地都有各種機構與媒體進行大學排名,如加拿大的Maclean’s、《亞洲週刊》(AsiaWeek)、義大利的La Repubblica、英國泰晤士報(The Times)的「大學指南」、波蘭的Perspektywy/Rzeczpospolita Uniwersytet以及西班牙的Excelencia等。表一為相關表列。

表一 大學排名各大機構(註1)

指標挑選攸關排名公信力

大學排名都具有某些特色,包括採用某一套指標並給予權重、次序的排列即代表等級的差異、針對某一特定範圍的大學進行比較(如機構或學門);而學術聲譽之資料乃來自調查高等教育相關人士之意見,使其看起來是個客觀操作的大學排名,事實上蘊含著主觀性(Salmi & Saroyan, 2007)。大學排名的方法變化多端,可以非常簡單,例如僅採論文引用率進行排名;也可以用一連串的指標,給予權重,進行主觀分析得到排名結果。但無論何者,大學排名都必須面臨一個問題:「挑選指標」本質上即為主觀-誰來決定大學最重要的部分是什麼?又為什麼這一所大學「優於」另一所大學?這是大學排名、排名方法的公信力必須面對的一大問題。

媒體發布的大學排名,常遭到他人批評其「專橫」性質-資料的來源、資料的運用、排名的方法等,可能不足或有缺陷(Salmi, 2009, p. 13)。決定最能被接受、最能表現大學卓越與品質的指標,是大學排名建立公信力的過程中,最根本也最需要努力的部分。很多大學排名並沒有把該做的工作做足,例如沒有說明排名方法可能產生的偏差、指標挑選與權重決定的原則等。也因此,大學排名進展到跨國比較階段時,其採用的方法往往有利於研究導向的大學,忽略了教學導向的大學之價值與貢獻。

排名方法應為排名專業的最優先考量

大學排名尚有另一項爭議,即大學排名的方法每年都有所異動,使得排名結果隨之出現劇烈的變動。但大學排名的使用者們,如學生、官員、大學校長或學者,卻不會意識到這一點。每年大學排名的結果變化,應歸因於排名方法之差異,而不是讓社會大眾誤以為,大學的次序與相對位置之不同是在同樣方法下進行表現與品質的比較。因此,排名的方法應該是排名專業的最優先考量。

國際排名專家團體協會(International Ranking Expert Group, IREG)於2006年5月舉辦第二屆國際研討會,會中各國排名專家學者共同提出排名協議「柏林原則」(Berlin principles),以做為大學排名方法之準則。柏林原則主要的內容包含如下:使用「產出」性(outputs)而非「投入」性(inputs)的指標、建立排名過程的透明性、使用可驗證的資料、認同大學使命乃因大學互異之多元性等,以達成清楚明白的大學排名結果(Williams, 2008)。

排名方法的透明性與一致性,以及考量到大學機構多元性之差異,而在不同的高等教育領域採用不同的品質評估方式,可使高等教育相關人士對其瞭解得更為完整。各相關人士瞭解的能力及對排名方法的信任,將會是未來建立大學排名公信力重要的努力方向。

大學排名的最新發展

不管情不情願,高等教育界也得接受大學排名的存在,所以大學排名的爭論焦點,也轉為改進排名方法、提供可驗證的資料,以提供豐富的資料做為決策參考。因此大學排名出現了許多新的創新:

●許多大學排名跳出傳統以教學品質、研究產出進行排名的框架,開始從大學的其他面向進行排名。如羅馬尼亞的大學「廉明度」(integrity)排名,就是檢視公立大學的「腐敗」(corruption)程度;而臺灣的「亞斯本研究機構」(Aspen Institute)則針對商學院融入社會與環境議題之深度進行排名(註4);美國的「山岳俱樂部」(Sierra Club)每年都會進行「美國最『綠』大學」(Cool Schools)的排名,以瞭解各大學對於生態環境的影響程度(註5)。

●有些排名開始以大學實際成果(outcome)為主進行排名,例如OECD已著手計畫的「高等教育學生學習成果評估」(assessment of higher education learning outcomes, AHELO),或臺灣HEEACT的「世界大學科研論文質量評比」(Performance Ranking of Scientific Papers for World Universities)(註6)與萊頓大學(Leiden)進行的大學排名(註7)兩者,都是在分析各大學的論文產出數量與文獻被引用率。

●個人化排名開始興起,例如德國「高等教育發展中心」(Centre for Higher Education Development, CHE)的大學排名(Hochschulranking)(註8)與西班牙「自然科學文獻引用排名」(SCImago)(註9),讓使用者自行決定大學校院間的比較方式,而非事先就被排名機構決定一套指標與結果。

●另外,整體高等教育體系的排名也開始出現,例如里斯本智庫(Lisbon Council)針對OECD下的17個國家之高等教育體系進行排名(註10)。

使用者主導,「客製化」排名的先驅:德國CHE

上述各類非傳統大學排名中,以德國CHE的大學排名與里斯本智庫的高等教育體系排名之變革最為新穎。德國CHE的大學排名是第一個也是最重要的「使用者自我導向」(self-directed)的學門排名。大學排名長久以來受到的批評,不外乎其呈現的辦學品質意涵狹隘偏頗,因此CHE大學排名「藉由這種創新的方法,去除指標的混雜性,以學門為範圍進行系所排名,並採『分群』(grouping)而非排行榜的方式呈現結果,讓這套大學排名在國際上獲得很高的評價」(CHE, 2008)。這套排名的設計,可讓使用者依據自身需求進行客製化(customize)的大學排名,以獲取最貼近自身需求的相關資訊,使排名更有意義。德國CHE的大學排名不決定指標與權重,更不會為使用者指出大學、系所的排名為何,而是讓使用者依據其所欲獲得的資訊,自行決定比較的面向與方法。

由使用者主導排名方式的排名概念,其實相當特殊,因其意味著此排名系統相信使用者的自主性,亦即使用者清楚知道自身的需要,並懂得如何選擇合適的指標(當然也需要能支持此概念的排名系統設計)。事實上,每一個大學排名都涉及極為主觀的指標挑選與權重分配問題,因其最後還是依據排名發展者的偏好。是故,所謂的「絕對客觀」的大學排名根本不可能存在。將大學排名的主觀性,從發展者轉移到使用者,為一極重要的轉變,德國CHE的大學排名因而建立了公信力,也是其他大學排名必須努力追趕之處。

從機構擴展到體系的全球性比較:里斯本智庫

而里斯本智庫則在「分析的單位」上,延伸出了新的概念。以往大學排名是以單一高等教育機構為單位(或系所)進行比較,里斯本智庫則將比較的單位擴展到整體高等教育體系。因為「高等教育體系存在的目的,是要滿足有潛力的學生能夠獲得以下最重要、最基本的需求:幫助學生瞭解、傳承國家文化,並有所貢獻;教導學生成為知識分子、社會中堅需要的分析能力與資訊技巧,最後成為對於經濟、文化、民主傳承與進步歷程中,不可或缺的一分子」(Ederer et al, 2008, p. 2)。

里斯本智庫排名的對象是組成OECD的17個國家高等教育體系,採用六大指標:學生多元性(inclusiveness)、入學管道暢通度(access)、辦學效能(effectiveness)、吸引力(attractiveness)、學習年齡分布(age-range/lifelong learning)、大學對社會變革的反應力(responsiveness)等。這份大學排名的目的在於進行全球性的比較,以瞭解在21世紀的知識本位(knowledge-based)社會背景下,各國高等教育體系是否能面對社會與經濟變遷的挑戰(ibid., p. 4)。

當然里斯本智庫所進行的這項排名,跟其他排名一樣,具有方法上的限制。其選取的指標是否真的能呈現、說明、評估出一個國家高等教育體系的整體表現,是相當值得討論的。同樣的,每個指標所分配到的權重,也是主觀性的決定。此外,這份排名的焦點乃是以「大學」為主,也因此,各國高等教育體系內部的其他系統對社會的貢獻度因而被忽略。雖然如此,里斯本智庫將大學排名從機構擴展到體系,不只為大學排名注入新的概念,對各個高等教育體系的組織、相關人士、使命等部分,也提供了相關的資訊概念。

發展中的世界銀行高等教育標竿

另外,世界銀行目前也在發展高等教育標竿(benchmarking)的工具,在指標輸入的面向上建立「可比較性」的基礎,以供各種高等教育評比進行運用。此標竿系統尚在發展初期,未來將會納入各大學排名發展的經驗,以及德國與里斯本智庫大學排名的理念。這套系統可以因應各個不同的使用者需求,讓使用者決定最切合他們目的的選擇,呈現最適切的資料。例如對政策制訂者與捐款者來說,他們可以選擇GDP或人口規模相似的國家,進行比較;而非將高等教育機構放在同一個籃子裡來比較高下,而忽略了國家發展程度不一、資源多寡互有落差、高教發展歷史相異、政治穩定度不同等背景條件。

這樣的比較系統,可以設定特定的背景項目,進行更有意義的比較。可想而知,其發展過程將會非常複雜,且收集的資訊必須包羅萬象,其資料來自各國的調查結果,以及UNESCO統計資料中心與OECD的資料庫等。

結論:
持續改進排名機制 更貼近使用者需求

大學排名方法的革新,也將排名的變化與運用推進到了正確的方向,像是將重點放在客觀的評比方法;檢視排名內容的各個面向;萃取更貼合各高等教育型態的元素,例如系所或論文出版量等項目;使用更符合各高等教育相關人士需求的指標;同時採用輸入與成果之指標來估量品質。以學生學習成果為主軸的大學排名,例如OECD進行的AHELO排名,雖然尚未正式啟用,在大學排名的最新發展出現重要變革的同時,也面臨了學生學習成果評估的種種挑戰,而這類排名所能呈現的客觀性與評比的廣度能有多少,值得觀察。

大學排名發展至今已有多種面貌,讓高等教育相關人士有機會利用不同的大學排名,從特定的角度來瞭解大學的樣貌。這些新穎的大學排名,提供了不同層次的分析資料,也可能進一步影響決策的內容。但從另一方面來說,其也可能符應或強化某些已被普遍認定的大學形象。然而不管大學排名運用何種新方法,其排名結果都必須檢視其類型、運用方式、合理性,這些面向也會是每個大學排名需要面對的。

此外,即使所有的大學排名都會有其方法上的限制,對於高等教育界,尤其是缺乏正式品質保證制度的國家來說,這些評比不失為一種重要的資料提供與評鑑工具。因此,對於大學排名的發展者與設計者而言,持續改進排名機制,呈現更確實可靠的評比結果,使其更貼近使用者的需求,是非常重要的功課。相同地,每個大學排名的使用者,本身也肩負一些責任-他們應該對這些呈現出來的資訊進行檢視與思考,而非照單全收。未來,學術界、使用者與政策制訂者對於排名方法的批判與詮釋,將會使排名持續地進步,成為一種資訊與指引工具。不管對大學排名的發展者或使用者來說,這都是值得期待的好消息。

*本文僅為個人立場,不代表世界銀行。

註1:
作者整理自World Bank與CEPES資料庫,以及Rocki, M. (2005, July), Clarke, M. (2005, July), deMiguel, J.M., Vaquera, E., & Sanchez, J. (2005, July), Liu, N.C., & Liu, L. (2005, July), WENR (2003, September/October).

註2:
德國「高等教育發展中心」(Centre for Higher Education Development, CHE)所進行之大學排名,其範圍也包含瑞士與奧地利的大學。

註3:
西班牙、葡萄牙與拉丁美洲三地之大學,組成了Universia,為伊比利半島與拉丁美洲兩地的大學進行排名,但不計入國際期刊發表數量之比較。(相關網站:http://investigacion.universia.net/isi/isi.html

註4:
http://www.beyondgreypinstripes.org/index.cfm

註5:
http://www.sierraclub.org/sierra/200909/coolschools/default.aspx

註6:
http://ranking.heeact.edu.tw/en-us/2009/page/methodology

註7:
http://www.cwts.nl/ranking/LeidenRankingWebSite.html

註8:
http://www.che-ranking.de/cms/?getObject=613&getLang=en

註9:
http://www.scimagojr.com/

註10:
http://lisboncouncil.com/index.php?option=com_downloads&id=76

參考書目

Rocki, M. (2005). Polish rankings: Some mathematical aspects. Higher Education in Europe, 30 (2), 173-182.

Clarke, M. (2005). Quality assessment lessons from Australia and New Zealand. Higher Education in Europe, 30 (2), 183-198.

deMiguel, J. M., Vaquera, E., & Sanchez, J. (2005). Spanish universities and the Ranking 2005 initiative. Higher Education in Europe, 30 (2), 199-216.

Liu, N. C., & Liu, L. (2005). University rankings in China. Higher Education in Europe, 30 (2), 217-228.

WENR (2003, September/October). Nigeria: NUC releases 2003 university rankings. Retrieved April 3, 2006, from http://www.wes.org/ewenr/03Sept/Africa.htm

 列印 |  轉寄好友 |  Top |  回首頁

本期目錄
-本期目錄
單元相關文章