1983年、U.S. News & World Report が初めてアメリカの大学ランキングを発表した。当初は雑誌の売上を伸ばすためのちょっとした企画に過ぎなかったものが、40年後の今日、世界の高等教育の景観を根本的に変容させている。現在、QS、THE(Times Higher Education)、ARWU(上海交通大学による世界大学学術ランキング)が、大学の資源配分、入学戦略の設計、さらには国家の教育政策の形成までをも支配している。しかし、ますます否定できない現実が浮上している:ランキングの追求が、大学が存在する本来の目的そのものを破壊しているのである。

I. グッドハートの法則:指標が目標になるとき

1975年、英国の経済学者チャールズ・グッドハートは、英国の金融政策を研究する中で、後に「グッドハートの法則」として知られることになる有名な観察を行った:「指標が目標になると、それはもはや良い指標ではなくなる。」[1]

この法則の背後にある論理は明快である。指標が有用なのは、私たちが真に関心を持つ何かと相関しているからである。しかし、その指標が目標になると、人々はそれが代表すべき実質ではなく、指標そのものを直接最適化し始める。その結果、指標と実質の乖離が生じる——指標は改善されるが、根底にある現実は変わらないか、むしろ悪化することさえある。[2]

大学ランキングは、グッドハートの法則が実際に作用している最も完璧な事例研究かもしれない。ランキングは元来、機関の「品質」に関する情報を提供するために設計されたが、大学がランキング向上を明確な目標として資源配分を始めた途端、ランキングはもはや品質を反映できなくなった——「大学がランキング指標でいかにうまく成績を出すか」を反映するに過ぎなくなったのである。

社会学者ドナルド・キャンベルはこの洞察のより強い版を表現し、「キャンベルの法則」として知られている:「定量的な社会指標が社会的意思決定に使用されればされるほど、腐敗の圧力にさらされやすくなり、それが監視するはずの社会プロセスを歪め、腐敗させる傾向が強まる。」[3]大学ランキングの歴史は、この法則の教科書的な例証である。

II. ランキングの方法論的欠陥

ランキングの影響を詳しく分析する前に、まずその方法論の根本的な問題を理解しなければならない。最も影響力のある3つのランキングを例に考えよう:[4]

QS世界大学ランキング

  • 学術的評判(40%):学者への調査に基づく
  • 雇用者の評判(10%):雇用者への調査に基づく
  • 教員・学生比率(20%)
  • 教員あたりの引用数(20%)
  • 外国人教員比率(5%)
  • 留学生比率(5%)

THE世界大学ランキング

  • 教育(30%):評判調査、教員・学生比率などを含む
  • 研究(30%):評判調査、研究収入などを含む
  • 引用(30%)
  • 国際性(7.5%)
  • 産業界からの収入(2.5%)

ARWU(上海ランキング)

  • ノーベル賞・フィールズ賞受賞者(卒業生10%、教員20%)
  • 被引用回数の多い研究者(20%)
  • Nature/Science掲載論文(20%)
  • SCIE/SSCI掲載論文(20%)
  • 一人あたりの学術成果(10%)

これらの方法論にはいくつかの根本的な問題がある:[5]

第一に、測定可能性バイアス。ランキングは定量化できる指標しか組み込めないが、大学の最も重要な機能——アイデアを触発すること、人格を育てること、社会に奉仕すること——は、まさに最も定量化が困難なものである。ランキングは「重要なこと」ではなく「測定できること」を測っている。

第二に、分野間バイアス。引用指標は自然科学と医学に大きく偏っている。これらの分野は人文科学や社会科学よりもはるかに多くの論文と引用を生み出すためである。一流のリベラルアーツ・カレッジは、これらのランキングにおいてほぼ存在感がない。[6]

第三に、評判調査の自己成就的性質。QSとTHEはいずれも「評判調査」に大きく依存しているが、評判はしばしば過去のランキングの反映に過ぎない。これがフィードバック・ループを生み出す:上位にランクされた機関は強い評判を享受し、強い評判を持つ機関は上位にランクされる。新興大学がこのサイクルを打破することはほぼ不可能である。[7]

第四に、ウェイトの恣意性。なぜ「教員・学生比率」が15%や25%ではなく20%なのか?なぜ「留学生比率」が5%なのか?これらのウェイトには理論的・実証的根拠がなく、ランキング機関による完全に主観的な決定である。ウェイトのわずかな調整がランキング結果を劇的に変えうる。[8]

III. ランキングはいかにして入学選抜を歪めるか

ランキングが大学入学選抜に与える影響は最も直接的である。学生と保護者にとって、ランキングはシンプルな「品質シグナル」を提供する——情報の非対称性に直面した際の理解可能な単純化である。しかし、大学がランキングを中心に入学戦略を設計し始めると問題が生じる。[9]

事例1:選抜率ゲーム。U.S. Newsのランキングは「合格率」を指標として含んでいる——合格率が低いほど、その機関は「選抜的」であり、ランキングが高くなる。その結果、多くのアメリカの大学が積極的に出願を奨励し(明らかに不適格な志願者を含む)、合格率を下げるためだけに彼らを不合格にするようになった。これは学生に何の利益ももたらさないが、膨大な管理資源を消費する。[10]

事例2:留学生の商品化。QSとTHEはいずれも「留学生比率」を指標に含んでいる。これにより、多くの大学——特に英国とオーストラリアの大学——が、教育の質ではなくランキングのインセンティブに基づいて大量の留学生を募集するようになった。2023年、英国の有名ビジネス・スクールのある修士課程では、学生の85%以上が中国からの留学生であり、「国際化」の精神そのものに完全に矛盾する「モノカルチャー」の教室が生まれていた。[11]

事例3:現地学生の締め出し。留学生は一般的により高い授業料を支払い、ランキング指標にも貢献するため、公立大学は「国際化」と「地域コミュニティへの奉仕」の間で緊張に直面する。カリフォルニア大学システムは、州外および留学生を大量に入学させたことで州議会から批判を受け、公立大学の使命から逸脱したと指摘された。[12]

IV. ランキングはいかにして研究を歪めるか

ランキングが学術研究に与える影響は、おそらく最も広範囲かつ破壊的である。[13]

量が質に勝る。大学が教授を「論文数」と「引用数」で評価するとき、学者にとって合理的な対応は、より良い論文ではなくより多くの論文を発表することである。これが学術出版の「インフレ」を引き起こした——論文数は爆発的に増加する一方、真に画期的な研究の割合は低下している。[14]

安全策がイノベーションに勝る。引用指標は「主流」の研究——既存のパラダイム内で運用され、同僚から容易に引用される研究——に有利に働く。真に革新的な研究——既存のパラダイムに挑戦し新たな分野を開拓するような研究——は、同僚がまだそれを評価する方法を知らないため、短期的には引用が少なくなることが多い。その結果、ランキングの圧力は学者に「安全な」研究テーマを選ぶよう促す。[15]

短期主義の蔓延。ランキングは毎年更新されるため、大学は毎年「成果を出す」必要がある。しかし、大きな学術的ブレークスルーには往々にして長期的で不確実な探究が必要である。教授が毎年「成果」を示さなければならないとき、失敗するかもしれないが、成功すれば世界を変えうるような研究を行う余地はなくなる。[16]

引用操作。さらに憂慮すべきことに、一部の機関が体系的に引用を操作し始めている。2019年、サウジアラビアのある大学が高額の報酬で「所属」研究者を採用し、論文数と引用数を水増しするために所属先としてその大学名を記載させていたことが発覚した。このような「学術アービトラージ」は学術的誠実性を著しく損なう。[17]

V. ランキングはいかにして教育を歪めるか

皮肉なことに、大学の最も基本的な機能である教育は、主要なランキングにおいてほとんど直接的に測定されていない。THEランキングの「教育」カテゴリーにおいて、教育の質に真に関連する唯一の要素は教員・学生比率であり、残りは研究関連指標の代理変数である。[18]

この測定のギャップが、資源配分に深刻な歪みをもたらしている:

研究が教育を凌駕する。ランキング駆動型の大学では、教員の昇進と報酬は教育の質ではなく、ほぼ全面的に研究成果に基づいている。これは合理的な対応である——ランキングが教育を測定しないなら、なぜ教育に投資するのか?その結果、最も才能ある学者たちはエネルギーを研究に注ぎ込み、教育を「必要悪」として扱うようになる。[19]

大教室授業の台頭。教授の研究時間を確保するために、多くの大学がクラスサイズを拡大し、少人数のディスカッションを減らし、オンライン講座を増やした。これらの施策は教育コストを下げるかもしれないが、教育の質を犠牲にしている。スタンフォード大学の研究は、教員と学生のインタラクションが高等教育において最も価値のある要素であることを示している——そしてそれこそが、ランキングの圧力が最初に犠牲にするものなのである。[20]

カリキュラムの「職業訓練化」。「雇用者の評判」スコアと卒業生の就職率を向上させるために、多くの大学がリベラルアーツ教育の伝統を犠牲にして、ますます「キャリア志向」のカリキュラムを設計するようになった。哲学、歴史、文学などの学科は、ランキング指標への貢献が少ないため、予算削減に直面している。しかし、批判的思考、道徳的判断、異文化理解を培うのはまさにこれらの学問であり——AI時代においては、いかなる「職業的スキル」よりも価値があることが証明されるかもしれない能力なのである。[21]

VI. グローバル競争:国家がランキングの囚人になるとき

ランキングの影響は個々の大学を超えて、国家レベルの高等教育政策を再形成している。[22]

中国の「双一流」イニシアチブ。2015年、中国政府は「双一流」建設計画を開始し、世界大学ランキングでより多くの上位ポジションを確保することを明確な目標とした。この計画には数百億元が投じられ、「世界のトップ層に入る可能性のある」大学と学科に優先的に資源が配分されている。批判者たちは、この資源の集中が国内高等教育の格差を悪化させ、「ランキング至上主義」の文化を強化する可能性があると主張している。[23]

日本の「スーパーグローバル大学」プロジェクト。2014年、日本政府は同様の取り組みを開始し、37の大学を選定して「国際競争力の向上」を目標に集中的に支援した。しかし、評価によれば、これらの投資は教育の質の実質的な改善ではなく、主に英語による授業の割合と留学生数の増加——ランキング指標——に向けられていた。[24]

ヨーロッパの合併の波。2007年以降、フランスは大学の合併を推進し、複数の小規模機関を「スーパー大学」に統合してランキングでの可視性を高めようとした。パリ=サクレー大学はこの戦略の産物である。このような合併は規模の経済をもたらすかもしれないが、多様性と学術的自律性を損なうリスクも伴う。[25]

この「グローバル競争」の論理は自己強化的である:他国がランキング追求に資源を投入すれば、競争に参加しない国は後れを取る。これは囚人のジレンマである——集団的に合理的な選択はランキングの重視を減らすことかもしれないが、最初に撤退する覚悟のある国はない。[26]

VII. 代替案:「良い大学」を再定義する

ランキングを批判することは容易だが、代替案を提案することは難しい。高等教育の質を評価する何らかの方法は必要である——問題は、いかにしてそれをより良く行うかである。[27]

1. 学習成果の評価。「インプット」(教員の資格、研究資金)ではなく、「アウトプット」(学生の学習成果)を測定してはどうか?米国のCLA+(大学学習評価)やEUのAHELOイニシアチブは、学生の批判的思考、ライティング、問題解決能力を直接測定しようと試みた。このアプローチは教育の実質的価値をより良く反映するが、異文化間の比較可能性という課題がある。[28]

2. 多次元的評価。EUが支援するU-Multirankプロジェクトは、単一のランキングを提供することを拒否している。代わりに、ユーザーが自分のニーズに基づいて指標を選択し——研究、教育、国際化、地域貢献、知識移転——パーソナライズされた比較を生成できるようにしている。このアプローチは大学の多様な使命を認めているが、「一つの数字」がないためメディアの注目を集めるのに苦労している。[29]

3. プロセスの透明性。「最高の」大学を追い求めるのではなく、学生が自分に合った選択をするためにより透明な情報を提供すべきである。これにはカリキュラムの内容、教育方法、卒業生のキャリア発展、学生満足度に関する情報が含まれる。焦点は「誰が最高か」ではなく「誰が自分に最も合っているか」であるべきだ。[30]

4. ピアレビュー。学術界にはすでにピアレビューの確立された伝統がある——なぜそれを機関の評価に適用しないのか?定期的な外部レビュー・パネル(他大学の研究者で構成される)は、定量的指標よりもニュアンスのある評価を提供できるだろう。このアプローチはコストが高いが、品質の複雑さをよりよく捉えることができる。[31]

VIII. 大学の使命:原点への回帰

ランキングの喧騒の中で、おそらく私たちは根本的な問いに立ち返る必要がある:大学は一体何のために存在するのか?[32]

19世紀のドイツの教育者ヴィルヘルム・フォン・フンボルトは、ベルリン大学を設立した際に、深い影響を与えた「フンボルト・モデル」を表現した:大学は「孤独と自由」(Einsamkeit und Freiheit)の中で行われる知的探究の場であり、研究と教育は不可分であり、学問の自由が最高の価値であるべきだとした。[33]

枢機卿ジョン・ヘンリー・ニューマンは、大学の理念において、大学の目的は「哲学的な思考の習慣」を培うこと——思考し、判断し、理解する能力を持つ全人格的な人間を育てることであり、特定のスキルのための訓練施設として機能することではないと強調した。[34]

20世紀のアメリカは「マルチバーシティ」モデルを発展させ、社会に奉仕する大学の多機能性——研究、教育、地域貢献、経済開発——を強調した。[35]

これらの伝統は大学の使命に対する理解が異なるが、一つの点で一致している:大学は単なる「人的資本」の生産ラインでも、単なる「知識製品」の工場でもない。大学は、社会が自らを省察し、未知を探求し、文明を伝承する場である。これらの機能は、まさにランキング指標が最も測定困難だと感じるものなのである。

結論:ランキングを超える勇気

2023年、イェール大学ロースクールはU.S. News & World Reportのランキングからの離脱を発表し、ハーバード、バークレー、スタンフォードなどのトップ・ロースクールがこれに続いた。その理由は明確だった:ランキングの方法論は彼らの教育使命と相容れず、参加を続けることは有害なシステムを強化するだけだということだった。[36]

これらのエリート校は「離脱する」資本を持っている——彼らの評判はランキングに依存していない。しかし、ほとんどの大学にとって、ランキング・ゲームからの離脱には巨大な勇気とリスク許容力が必要である。これこそがまさに問題なのだ:ランキングは、大学が一方的に離脱することを極めて困難にする「囚人のジレンマ」を生み出しているのである。

変革は複数の方面で同時に起こらなければならない:[37]

  • ランキング機関は方法論を改善し、学習成果や社会的インパクトに関するより多くの指標を組み込む必要がある
  • 大学はランキングの最適化だけに走る誘惑に抗い、教育使命を堅持する必要がある
  • 政府はランキング順位に基づいて資源を配分することを止める必要がある
  • 学生と保護者は一つの数字を超えて見て、教育の質の複雑さを理解する必要がある
  • メディアは「ランキング変動」のセンセーショナルな報道を減らす必要がある

これは評価の全面的な否定ではない。適切な評価はアカウンタビリティを促進し、問題を特定し、改善を推進することができる。しかし、評価は手段であって目的ではないはずだ。教育使命に奉仕するものであり、それに取って代わるものであってはならない。[38]

「どの大学が最高か」と問うとき、おそらくより良い問いはこうだ:「誰にとって最高なのか?何の目的にとって最高なのか?どのような価値観に基づいて最高なのか?」これらの問いには唯一の答えがない——そしてまさにそこに教育の豊かさがある。

参考文献

  1. Goodhart, C. A. E. (1984). Problems of Monetary Management: The U.K. Experience. In C. A. E. Goodhart, Monetary Theory and Practice (pp. 91-121). Macmillan. doi:10.1007/978-1-349-17295-5_4
  2. Strathern, M. (1997). 'Improving Ratings': Audit in the British University System. European Review, 5(3), 305-321. doi:10.1002/(SICI)1234-981X(199707)
  3. Campbell, D. T. (1979). Assessing the Impact of Planned Social Change. Evaluation and Program Planning, 2(1), 67-90. doi:10.1016/0149-7189(79)90048-X
  4. Hazelkorn, E. (2015). Rankings and the Reshaping of Higher Education: The Battle for World-Class Excellence (2nd ed.). Palgrave Macmillan.
  5. Marginson, S. (2014). University Rankings and Social Science. European Journal of Education, 49(1), 45-59. doi:10.1111/ejed.12061
  6. Pusser, B., & Marginson, S. (2013). University Rankings in Critical Perspective. The Journal of Higher Education, 84(4), 544-568. doi:10.1080/00221546.2013.11777301
  7. Bowman, N. A., & Bastedo, M. N. (2011). Anchoring Effects in World University Rankings: Exploring Biases in Reputation Scores. Higher Education, 61(4), 431-444. doi:10.1007/s10734-010-9339-1
  8. Soh, K. (2015). What the Overall Doesn't Tell about World University Rankings: Examples from ARWU, QSWUR, and THEWUR in 2013. Journal of Higher Education Policy and Management, 37(4), 404-414. doi:10.1080/1360080X.2015.1056601
  9. Espeland, W. N., & Sauder, M. (2007). Rankings and Reactivity: How Public Measures Recreate Social Worlds. American Journal of Sociology, 113(1), 1-40. doi:10.1086/517897
  10. Luca, M., & Smith, J. (2013). Salience in Quality Disclosure: Evidence from the U.S. News College Rankings. Journal of Economics & Management Strategy, 22(1), 58-77. doi:10.1111/jems.12003
  11. Bound, J., Braga, B., Khanna, G., & Turner, S. (2020). A Passage to America: University Funding and International Students. American Economic Journal: Economic Policy, 12(1), 97-126. doi:10.1257/pol.20170620
  12. Jaquette, O., & Curs, B. R. (2015). Creating the Out-of-State University: Do Public Universities Increase Nonresident Freshman Enrollment in Response to Declining State Appropriations? Research in Higher Education, 56(6), 535-565. doi:10.1007/s11162-015-9362-2
  13. Bornmann, L., & Mutz, R. (2015). Growth Rates of Modern Science: A Bibliometric Analysis Based on the Number of Publications and Cited References. Journal of the Association for Information Science and Technology, 66(11), 2215-2222. doi:10.1002/asi.23329
  14. Fanelli, D., & Larivière, V. (2016). Researchers' Individual Publication Rate Has Not Increased in a Century. PLOS ONE, 11(3), e0149504. doi:10.1371/journal.pone.0149504
  15. Wang, J., Veugelers, R., & Stephan, P. (2017). Bias against Novelty in Science: A Cautionary Tale for Users of Bibliometric Indicators. Research Policy, 46(8), 1416-1436. doi:10.1016/j.respol.2017.06.006
  16. Stephan, P. (2012). How Economics Shapes Science. Harvard University Press.
  17. Bhattacharjee, Y. (2011). Saudi Universities Offer Cash in Exchange for Academic Prestige. Science, 334(6061), 1344-1345. doi:10.1126/science.334.6061.1344
  18. Johnes, J. (2018). University Rankings: What Do They Really Show? Scientometrics, 115(1), 585-606. doi:10.1007/s11192-018-2666-1
  19. Fairweather, J. S. (2005). Beyond the Rhetoric: Trends in the Relative Value of Teaching and Research in Faculty Salaries. The Journal of Higher Education, 76(4), 401-422. doi:10.1080/00221546.2005.11772290
  20. Arum, R., & Roksa, J. (2011). Academically Adrift: Limited Learning on College Campuses. University of Chicago Press.
  21. Nussbaum, M. C. (2010). Not for Profit: Why Democracy Needs the Humanities. Princeton University Press.
  22. Mok, K. H., & Chan, Y. (2008). International Benchmarking with the Best Universities: Policy and Practice in Mainland China and Taiwan. Higher Education Policy, 21(4), 469-486. doi:10.1057/hep.2008.21
  23. Yang, R., & Welch, A. (2012). A World-Class University in China? The Case of Tsinghua. Higher Education, 63(5), 645-666. doi:10.1007/s10734-011-9465-4
  24. Yonezawa, A., & Shimmi, Y. (2015). Transformation of University Governance through Internationalization: Challenges for Top Universities and Government Policies in Japan. Higher Education, 70(2), 173-186. doi:10.1007/s10734-015-9863-0
  25. Musselin, C. (2017). La Grande Course des Universités. Presses de Sciences Po.
  26. Marginson, S., & van der Wende, M. (2007). To Rank or To Be Ranked: The Impact of Global Rankings in Higher Education. Journal of Studies in International Education, 11(3-4), 306-329. doi:10.1177/1028315307303544
  27. Altbach, P. G. (2012). The Globalization of College and University Rankings. Change: The Magazine of Higher Learning, 44(1), 26-31. doi:10.1080/00091383.2012.636001
  28. Shavelson, R. J. (2010). Measuring College Learning Responsibly: Accountability in a New Era. Stanford University Press.
  29. van Vught, F. A., & Ziegele, F. (Eds.). (2012). Multidimensional Ranking: The Design and Development of U-Multirank. Springer. doi:10.1007/978-94-007-3005-2
  30. Dill, D. D., & Soo, M. (2005). Academic Quality, League Tables, and Public Policy: A Cross-National Analysis of University Ranking Systems. Higher Education, 49(4), 495-533. doi:10.1007/s10734-004-1746-8
  31. Harvey, L. (2008). Rankings of Higher Education Institutions: A Critical Review. Quality in Higher Education, 14(3), 187-207. doi:10.1080/13538320802507711
  32. Scott, P. (2006). The Academic Profession in a Knowledge Society. In U. Teichler (Ed.), The Formative Years of Scholars (pp. 19-30). Portland Press.
  33. Humboldt, W. von. (1810/1970). On the Spirit and the Organisational Framework of Intellectual Institutions in Berlin. Minerva, 8(2), 242-250.
  34. Newman, J. H. (1852/1996). The Idea of a University. Yale University Press.
  35. Kerr, C. (2001). The Uses of the University (5th ed.). Harvard University Press.
  36. Garland, M. (2022). Yale Law School Will No Longer Participate in U.S. News Rankings. Yale Law School News. law.yale.edu
  37. Hazelkorn, E. (2017). Rankings and Higher Education: Reframing Relationships within and between States. In R. King, S. Marginson, & R. Naidoo (Eds.), The Globalization of Higher Education (pp. 183-206). Edward Elgar.
  38. Christensen, C. M., & Eyring, H. J. (2011). The Innovative University: Changing the DNA of Higher Education from the Inside Out. Jossey-Bass.
インサイト一覧に戻る