1983 年,《美國新聞與世界報導》(U.S. News & World Report)發布了第一份美國大學排名。這份原本只是雜誌銷量噱頭的榜單,在四十年後徹底改變了全球高等教育的生態。今天,QS、THE(泰晤士高等教育)、ARWU(上海交大世界大學學術排名)主導著大學的資源配置、招生策略、甚至國家的教育政策。但一個越來越明顯的事實是:追求排名的過程,正在摧毀大學存在的根本目的

一、Goodhart 定律:當指標變成目標

1975 年,英國經濟學家 Charles Goodhart 在研究英國貨幣政策時提出了一個著名的觀察,後來被稱為「Goodhart 定律」:「當一個指標變成政策目標時,它就不再是一個好的指標。」[1]

這個定律的邏輯很簡單:指標之所以有用,是因為它與我們真正關心的事物相關。但一旦這個指標成為目標,人們就會直接針對指標進行優化,而非針對指標背後的實質。結果是指標與實質脫鉤——指標上升了,但實質可能沒有改善,甚至惡化。[2]

大學排名正是 Goodhart 定律最完美的案例研究。排名原本是為了提供關於大學「品質」的資訊,但當大學開始以排名為目標進行資源配置時,排名就不再能反映品質——它只能反映「大學在排名指標上的表現」。

社會學家 Donald Campbell 提出了更強版本的類似觀點,稱為「Campbell 定律」:「越是將量化社會指標用於社會決策,它就越容易受到腐敗壓力的影響,也就越容易扭曲和腐蝕它原本要監測的社會過程。」[3] 大學排名的歷史,是這個定律的教科書式演繹。

二、排名的方法論謬誤

在深入分析排名的影響之前,我們必須先理解排名方法論的根本問題。以最具影響力的三大排名為例:[4]

QS 世界大學排名

  • 學術聲譽(40%):基於學者調查
  • 雇主聲譽(10%):基於雇主調查
  • 師生比(20%)
  • 每位教師的論文引用數(20%)
  • 國際教師比例(5%)
  • 國際學生比例(5%)

THE 世界大學排名

  • 教學(30%):包括聲譽調查、師生比等
  • 研究(30%):包括聲譽調查、研究收入等
  • 引用(30%)
  • 國際視野(7.5%)
  • 產業收入(2.5%)

ARWU 上海排名

  • 諾貝爾獎/菲爾茲獎得主(校友 10%、教師 20%)
  • 高被引學者(20%)
  • Nature/Science 論文(20%)
  • SCIE/SSCI 論文(20%)
  • 人均學術表現(10%)

這些方法論有幾個根本性的問題:[5]

第一,可測量性偏誤。排名只能納入可量化的指標,但大學最重要的功能——啟發思想、培養人格、服務社會——恰恰是最難量化的。排名測量的是「可測量的東西」,而非「重要的東西」。

第二,學科偏誤。引用指標嚴重偏向自然科學和醫學,因為這些領域的論文數量和引用率遠高於人文社會科學。一所頂尖的文理學院(liberal arts college)在這些排名中幾乎沒有立足之地。[6]

第三,聲譽調查的自我實現。QS 和 THE 都大量依賴「聲譽調查」,但聲譽往往是過去排名的結果。這創造了一種循環:排名高的學校聲譽好,聲譽好的學校排名高。新興大學幾乎不可能突破這個循環。[7]

第四,權重的任意性。為什麼「師生比」佔 20% 而非 15% 或 25%?為什麼「國際學生比例」佔 5%?這些權重沒有任何理論或實證基礎,完全是排名機構的主觀決定。微小的權重調整就可以大幅改變排名結果。[8]

三、排名如何扭曲招生

排名對大學招生的影響是最直接的。對學生和家長來說,排名提供了一個簡單的「品質信號」——在資訊不對稱的情況下,這種簡化是可以理解的。但當大學開始為了排名而設計招生策略時,問題就出現了。[9]

案例一:提高「選擇性」的遊戲。U.S. News 排名將「錄取率」納入指標——錄取率越低,學校越「選擇性」,排名越高。於是,許多美國大學開始大量鼓勵學生申請(包括那些明顯不合格的學生),然後拒絕他們,以降低錄取率。這對學生毫無益處,卻消耗了大量行政資源。[10]

案例二:國際學生的「商品化」。QS 和 THE 都將「國際學生比例」納入指標。這導致許多大學——特別是英國和澳洲的大學——大量招收國際學生,而非根據教育品質考量。2023 年,英國某頂尖大學商學院的碩士班有超過 85% 的學生來自中國,形成了實質上的「單一文化」課堂,完全違背了「國際化」的本意。[11]

案例三:對本地學生的排擠。由於國際學生通常支付更高的學費,且有助於排名指標,公立大學面臨著「國際化」與「服務本地社區」之間的張力。加州大學系統曾因大量錄取外州和國際學生而遭到州議會批評,認為其背離了公立大學的使命。[12]

四、排名如何扭曲研究

排名對學術研究的影響可能是最深遠、也最具破壞性的。[13]

數量取代品質。當大學以「論文數量」和「引用次數」評估教授時,學者的理性反應是:發表更多論文,而非更好的論文。這導致了學術出版的「通貨膨脹」——論文數量爆炸性成長,但突破性研究的比例下降。[14]

安全路線取代創新。引用指標青睞「主流」研究——那些在現有典範內、容易被同行引用的工作。真正創新的研究——挑戰既有典範、開創新領域——往往在短期內獲得較少引用,因為同行還不知道如何評價它。結果是,追求排名的壓力鼓勵學者選擇「安全」的研究課題。[15]

短期主義盛行。排名每年更新,這意味著大學需要每年「交出成績」。但重大的學術突破往往需要長期的、不確定的探索。當教授必須每年展示「產出」,他們就沒有餘裕進行那種可能失敗、但一旦成功就改變世界的研究。[16]

引用操弄。更令人擔憂的是,一些機構開始系統性地操弄引用。2019 年,沙烏地阿拉伯的一所大學被發現透過高薪聘請「掛名」學者,讓他們將工作地址掛在該校名下,以提高論文數量和引用。這種「學術套利」嚴重損害了學術誠信。[17]

五、排名如何扭曲教學

諷刺的是,教學——大學最核心的功能——在主流排名中幾乎沒有被直接測量。THE 排名的「教學」指標中,真正與教學品質相關的只有師生比;其餘都是研究相關指標的代理變數。[18]

這種測量缺失導致了資源配置的嚴重扭曲:

研究壓倒教學。在追求排名的大學中,教授的晉升和獎勵幾乎完全基於研究產出,而非教學品質。這是理性的反應——如果排名不測量教學,為什麼要投資教學?結果是,最有才華的學者將精力投入研究,而將教學視為「必要之惡」。[19]

大班教學盛行。為了釋放教授的時間進行研究,許多大學擴大班級規模、減少小組討論、增加線上課程。這些做法可能降低教學成本,卻犧牲了教育品質。史丹佛大學的研究顯示,師生互動是高等教育中最有價值的元素——而這正是排名壓力下最先被犧牲的。[20]

課程的「職業化」。為了提高「雇主聲譽」和畢業生就業率,許多大學將課程設計得越來越「職業導向」,犧牲了博雅教育(liberal arts education)的傳統。哲學、歷史、文學等學科面臨經費削減,因為它們對排名指標貢獻有限。但正是這些學科培養批判思考、道德判斷、跨文化理解——這些能力在 AI 時代可能比任何「職業技能」更有價值。[21]

六、全球競賽:當國家成為排名的囚徒

排名的影響不止於個別大學,它已經重塑了國家層面的高等教育政策。[22]

中國的「雙一流」工程。2015 年,中國政府啟動「雙一流」建設計劃,明確目標是在世界大學排名中獲得更多頂尖位置。這項計劃投入了數百億人民幣,優先支持那些「有潛力進入世界前列」的大學和學科。批評者指出,這種資源集中可能加劇國內高等教育的不平等,並強化「排名至上」的文化。[23]

日本的「超級全球大學」。2014 年,日本政府推出類似計劃,選定 37 所大學進行重點支持,目標是「提高國際競爭力」。然而,評估顯示,這些投資主要用於提高英語授課比例和國際學生人數——排名指標——而非教育品質的實質提升。[24]

歐洲的合併潮。法國自 2007 年起推動大學合併,將多所小型機構合併為「超級大學」,以提高在排名中的能見度。巴黎薩克萊大學(Université Paris-Saclay)就是這種策略的產物。這種合併可能帶來規模效益,但也可能損害多元性和學術自主。[25]

這種「全球競賽」的邏輯是自我強化的:當其他國家投入資源追求排名時,不參與競爭的國家就會被落下。這是一種囚徒困境——集體理性的選擇可能是減少對排名的重視,但沒有國家願意首先退出。[26]

七、替代方案:重新定義「好大學」

批評排名很容易,但提出替代方案很難。我們需要某種方式評估高等教育的品質,問題是如何做得更好。[27]

一、學習成果評估。與其測量「投入」(教師資格、研究經費),不如測量「產出」(學生的學習成果)。美國的 CLA+(Collegiate Learning Assessment)和歐盟的 AHELO 計劃嘗試直接測量學生的批判思考、寫作和問題解決能力。這種方法更能反映教育的實質價值,但面臨跨文化可比性的挑戰。[28]

二、多維度評估。歐盟支持的 U-Multirank 項目拒絕提供單一排名,而是讓用戶根據自己的需求(研究、教學、國際化、地區參與、知識轉移)選擇指標,生成個性化的比較。這種方法承認大學的多元使命,但因為沒有「單一數字」而較難獲得媒體關注。[29]

三、過程透明化。與其追求「最好」的大學,不如提供更透明的資訊讓學生做出適合自己的選擇。這包括課程內容、教學方法、畢業生職涯發展、學生滿意度等資訊。重點不是「誰最好」,而是「誰最適合我」。[30]

四、同儕評審。學術界已有成熟的同儕評審傳統,為什麼不將其應用於機構評估?定期的外部評審團(由其他大學的學者組成)可以提供比量化指標更細緻的評估。這種方法成本較高,但更能捕捉品質的複雜性。[31]

八、大學的使命:回歸本質

在排名喧囂中,我們或許需要回歸一個根本問題:大學究竟是為了什麼?[32]

十九世紀德國教育家 Wilhelm von Humboldt 創立柏林大學時,提出了影響深遠的「洪堡模式」:大學應該是「孤獨與自由中的」(Einsamkeit und Freiheit)知識追求場所,研究與教學不可分割,學術自由是最高價值。[33]

英國的紐曼樞機主教(John Henry Newman)則在《大學的理念》中強調,大學的目的是培養「具有哲學習慣的心智」——能夠思考、判斷、理解的完整人格,而非特定技能的訓練場所。[34]

二十世紀的美國則發展出「多元巨型大學」(multiversity)的模式,強調大學服務社會的多元功能——研究、教學、社區參與、經濟發展。[35]

這些傳統對大學使命的理解各有不同,但都同意一點:大學不只是「人力資本」的生產線,也不只是「知識產品」的工廠。大學是社會反思自身、探索未知、傳承文明的場所。這些功能,恰恰是最難用排名指標測量的。

結語:超越排名的勇氣

2023 年,耶魯法學院宣布退出《美國新聞與世界報導》的排名,哈佛、柏克萊、史丹佛等頂尖法學院隨後跟進。他們的理由是:排名的方法論與教育使命不符,繼續參與只會強化一個有害的系統。[36]

這些頂尖學府有資本「退出」——它們的聲譽不依賴排名。但對於大多數大學來說,退出排名遊戲需要巨大的勇氣和風險承擔。這正是問題所在:排名創造了一種「囚徒困境」,讓大學很難單獨抽身。

改變需要從多個層面同時發生:[37]

  • 排名機構需要改進方法論,更多納入學習成果和社會影響的指標
  • 大學需要抵抗純粹為排名優化的誘惑,堅守教育使命
  • 政府需要停止以排名為基礎的資源分配政策
  • 學生和家長需要超越單一數字,理解教育品質的複雜性
  • 媒體需要減少對「排名變動」的聳動報導

這不是要全盤否定評估的價值。適當的評估可以促進問責、識別問題、推動改進。但評估應該是手段,而非目的;應該服務於教育使命,而非取代教育使命。[38]

當我們問「哪所大學最好」時,或許更好的問題是:「對誰最好?為了什麼目的最好?根據什麼價值最好?」這些問題沒有單一答案,而這正是教育的豐富性所在。

References

  1. Goodhart, C. A. E. (1984). Problems of Monetary Management: The U.K. Experience. In C. A. E. Goodhart, Monetary Theory and Practice (pp. 91-121). Macmillan. doi:10.1007/978-1-349-17295-5_4
  2. Strathern, M. (1997). 'Improving Ratings': Audit in the British University System. European Review, 5(3), 305-321. doi:10.1002/(SICI)1234-981X(199707)
  3. Campbell, D. T. (1979). Assessing the Impact of Planned Social Change. Evaluation and Program Planning, 2(1), 67-90. doi:10.1016/0149-7189(79)90048-X
  4. Hazelkorn, E. (2015). Rankings and the Reshaping of Higher Education: The Battle for World-Class Excellence (2nd ed.). Palgrave Macmillan.
  5. Marginson, S. (2014). University Rankings and Social Science. European Journal of Education, 49(1), 45-59. doi:10.1111/ejed.12061
  6. Pusser, B., & Marginson, S. (2013). University Rankings in Critical Perspective. The Journal of Higher Education, 84(4), 544-568. doi:10.1080/00221546.2013.11777301
  7. Bowman, N. A., & Bastedo, M. N. (2011). Anchoring Effects in World University Rankings: Exploring Biases in Reputation Scores. Higher Education, 61(4), 431-444. doi:10.1007/s10734-010-9339-1
  8. Soh, K. (2015). What the Overall Doesn't Tell about World University Rankings: Examples from ARWU, QSWUR, and THEWUR in 2013. Journal of Higher Education Policy and Management, 37(4), 404-414. doi:10.1080/1360080X.2015.1056601
  9. Espeland, W. N., & Sauder, M. (2007). Rankings and Reactivity: How Public Measures Recreate Social Worlds. American Journal of Sociology, 113(1), 1-40. doi:10.1086/517897
  10. Luca, M., & Smith, J. (2013). Salience in Quality Disclosure: Evidence from the U.S. News College Rankings. Journal of Economics & Management Strategy, 22(1), 58-77. doi:10.1111/jems.12003
  11. Bound, J., Braga, B., Khanna, G., & Turner, S. (2020). A Passage to America: University Funding and International Students. American Economic Journal: Economic Policy, 12(1), 97-126. doi:10.1257/pol.20170620
  12. Jaquette, O., & Curs, B. R. (2015). Creating the Out-of-State University: Do Public Universities Increase Nonresident Freshman Enrollment in Response to Declining State Appropriations? Research in Higher Education, 56(6), 535-565. doi:10.1007/s11162-015-9362-2
  13. Bornmann, L., & Mutz, R. (2015). Growth Rates of Modern Science: A Bibliometric Analysis Based on the Number of Publications and Cited References. Journal of the Association for Information Science and Technology, 66(11), 2215-2222. doi:10.1002/asi.23329
  14. Fanelli, D., & Larivière, V. (2016). Researchers' Individual Publication Rate Has Not Increased in a Century. PLOS ONE, 11(3), e0149504. doi:10.1371/journal.pone.0149504
  15. Wang, J., Veugelers, R., & Stephan, P. (2017). Bias against Novelty in Science: A Cautionary Tale for Users of Bibliometric Indicators. Research Policy, 46(8), 1416-1436. doi:10.1016/j.respol.2017.06.006
  16. Stephan, P. (2012). How Economics Shapes Science. Harvard University Press.
  17. Bhattacharjee, Y. (2011). Saudi Universities Offer Cash in Exchange for Academic Prestige. Science, 334(6061), 1344-1345. doi:10.1126/science.334.6061.1344
  18. Johnes, J. (2018). University Rankings: What Do They Really Show? Scientometrics, 115(1), 585-606. doi:10.1007/s11192-018-2666-1
  19. Fairweather, J. S. (2005). Beyond the Rhetoric: Trends in the Relative Value of Teaching and Research in Faculty Salaries. The Journal of Higher Education, 76(4), 401-422. doi:10.1080/00221546.2005.11772290
  20. Arum, R., & Roksa, J. (2011). Academically Adrift: Limited Learning on College Campuses. University of Chicago Press.
  21. Nussbaum, M. C. (2010). Not for Profit: Why Democracy Needs the Humanities. Princeton University Press.
  22. Mok, K. H., & Chan, Y. (2008). International Benchmarking with the Best Universities: Policy and Practice in Mainland China and Taiwan. Higher Education Policy, 21(4), 469-486. doi:10.1057/hep.2008.21
  23. Yang, R., & Welch, A. (2012). A World-Class University in China? The Case of Tsinghua. Higher Education, 63(5), 645-666. doi:10.1007/s10734-011-9465-4
  24. Yonezawa, A., & Shimmi, Y. (2015). Transformation of University Governance through Internationalization: Challenges for Top Universities and Government Policies in Japan. Higher Education, 70(2), 173-186. doi:10.1007/s10734-015-9863-0
  25. Musselin, C. (2017). La Grande Course des Universités. Presses de Sciences Po.
  26. Marginson, S., & van der Wende, M. (2007). To Rank or To Be Ranked: The Impact of Global Rankings in Higher Education. Journal of Studies in International Education, 11(3-4), 306-329. doi:10.1177/1028315307303544
  27. Altbach, P. G. (2012). The Globalization of College and University Rankings. Change: The Magazine of Higher Learning, 44(1), 26-31. doi:10.1080/00091383.2012.636001
  28. Shavelson, R. J. (2010). Measuring College Learning Responsibly: Accountability in a New Era. Stanford University Press.
  29. van Vught, F. A., & Ziegele, F. (Eds.). (2012). Multidimensional Ranking: The Design and Development of U-Multirank. Springer. doi:10.1007/978-94-007-3005-2
  30. Dill, D. D., & Soo, M. (2005). Academic Quality, League Tables, and Public Policy: A Cross-National Analysis of University Ranking Systems. Higher Education, 49(4), 495-533. doi:10.1007/s10734-004-1746-8
  31. Harvey, L. (2008). Rankings of Higher Education Institutions: A Critical Review. Quality in Higher Education, 14(3), 187-207. doi:10.1080/13538320802507711
  32. Scott, P. (2006). The Academic Profession in a Knowledge Society. In U. Teichler (Ed.), The Formative Years of Scholars (pp. 19-30). Portland Press.
  33. Humboldt, W. von. (1810/1970). On the Spirit and the Organisational Framework of Intellectual Institutions in Berlin. Minerva, 8(2), 242-250.
  34. Newman, J. H. (1852/1996). The Idea of a University. Yale University Press.
  35. Kerr, C. (2001). The Uses of the University (5th ed.). Harvard University Press.
  36. Garland, M. (2022). Yale Law School Will No Longer Participate in U.S. News Rankings. Yale Law School News. law.yale.edu
  37. Hazelkorn, E. (2017). Rankings and Higher Education: Reframing Relationships within and between States. In R. King, S. Marginson, & R. Naidoo (Eds.), The Globalization of Higher Education (pp. 183-206). Edward Elgar.
  38. Christensen, C. M., & Eyring, H. J. (2011). The Innovative University: Changing the DNA of Higher Education from the Inside Out. Jossey-Bass.
返回洞見