「道德風險」(moral hazard)是經濟學中最具解釋力、也最常被誤解的概念之一。它起源於十七世紀的保險業實務觀察,經過 Kenneth Arrow、Mark Pauly、Joseph Stiglitz 等學者的理論化,成為理解資訊不對稱下行為扭曲的核心分析框架。[1]從保險市場中投保人降低自我防護的傾向,到企業治理中 CEO 以股東利益為代價追求私人目標,再到 2008 年金融危機中「大到不能倒」(too big to fail)所誘發的系統性冒險行為——道德風險的幽靈,始終在經濟體系的每一個委託代理關係中徘徊。然而,當我們進入 AI 時代,這個古老問題正以全新的形態重新浮現:當演算法代替人類做出決策,當 AI 代理人(AI agent)擁有日益增長的自主性,傳統的問責機制與激勵設計正面臨前所未有的挑戰。[2]本文將從經濟學的嚴謹視角出發,系統解構道德風險的理論演進與現實應用,並探討在 AI 時代中,我們應如何重新設計治理架構以回應這些新型委託代理困境。
一、道德風險的古典定義與理論起源
道德風險一詞最早出現在十七世紀末的英國保險業文獻中,用以描述投保人在獲得保險保障後,降低對風險防範努力的現象。然而,這個概念真正獲得經濟學理論的嚴格分析,要歸功於 Kenneth Arrow 在 1963 年發表的開創性論文〈Uncertainty and the Welfare Economics of Medical Care〉。[1]Arrow 在這篇經典之作中指出,醫療保險市場的特殊性在於:醫療服務的需求具有高度不確定性,而保險的引入改變了消費者面對的有效價格,從而導致醫療服務的過度使用。這不是因為投保人「不道德」——Arrow 特別強調——而是因為保險改變了個人行為的激勵結構。
Arrow 的分析揭示了一個根本性洞見:道德風險的本質不是道德問題,而是激勵問題。當個人行為的後果被部分或完全轉移給他人(保險公司、股東、納稅人)承擔時,理性的經濟行為人自然會調整其行為——減少預防努力、增加風險承擔、或過度消費被保險的服務。這種行為調整在個體層面是完全理性的,但在集體層面卻可能導致資源的嚴重錯配。
五年後,Mark Pauly 在 1968 年的論文〈The Economics of Moral Hazard〉中,進一步將 Arrow 的洞見形式化為一個嚴格的經濟模型。[3]Pauly 明確區分了「事前道德風險」(ex ante moral hazard)與「事後道德風險」(ex post moral hazard)。事前道德風險指的是投保後降低預防行為——例如,購買了火災保險的屋主可能減少對消防設備的投資;事後道德風險指的是損失發生後過度索賠——例如,有了醫療保險的病人可能要求不必要的額外檢查。Pauly 的核心論點是:即使在完全競爭的保險市場中,道德風險仍然會導致保險覆蓋率低於社會最優水準(Pareto optimal level),因為保險公司必須將道德風險帶來的額外成本反映在保費中,而較高的保費會讓部分消費者選擇不投保。
值得注意的是,道德風險問題的嚴重程度取決於「觀察性」(observability)。如果保險公司能夠完美觀察投保人的所有行為(預防努力、風險承擔程度等),就可以設計出將保費與行為掛鉤的契約,從而消除道德風險。然而,在現實世界中,個人的許多行為是不可觀察或觀察成本極高的——這正是 Stiglitz 所稱的「資訊不對稱」(asymmetric information)問題的核心。[4]Stiglitz 與 Rothschild 在 1976 年的經典研究中,將資訊不對稱下的市場均衡進行了系統分析,證明了在存在逆向選擇與道德風險的市場中,完全競爭的市場均衡可能根本不存在,或者存在但不具效率。這項研究為 Stiglitz 贏得了 2001 年的諾貝爾經濟學獎。
二、道德風險與逆向選擇:兩種資訊不對稱的辨析
在資訊經濟學的分析框架中,道德風險(moral hazard)和逆向選擇(adverse selection)是兩種最核心的市場失靈來源,但它們的機制截然不同,而且經常被混淆。準確理解兩者的區別,是分析任何委託代理關係的基礎。
逆向選擇發生在契約簽訂之前(ex ante)。它指的是因為交易雙方擁有不對稱的資訊,導致市場上「劣質品驅逐良質品」的現象。George Akerlof 在 1970 年的經典論文〈The Market for "Lemons"〉中,以二手車市場為例說明了這個機制:賣方知道自己的車是否為「檸檬車」(劣質車),但買方無法區分。[5]在資訊不對稱下,買方只願支付平均品質對應的價格,導致高品質車主退出市場,市場品質持續下降——這就是逆向選擇的螺旋。在保險市場中,逆向選擇表現為:高風險者更傾向購買保險,因為他們知道自己更可能需要索賠,而低風險者則因保費過高而退出市場。
道德風險則發生在契約簽訂之後(ex post)。它指的是因為契約改變了一方的激勵結構,導致其行為偏離對方利益的現象。關鍵區別在於:逆向選擇涉及的是「隱藏資訊」(hidden information)——一方擁有另一方不知道的私人資訊;道德風險涉及的是「隱藏行動」(hidden action)——一方在契約簽訂後採取了另一方無法觀察的行為。
Michael Whinston 在其經典教科書《Microeconomic Theory》(與 Andreu Mas-Colell、Jerry Green 合著)中,對這兩種資訊不對稱問題進行了最為系統的理論整合。[6]Whinston 的分析框架表明,在許多現實情境中,道德風險與逆向選擇是同時存在且相互強化的。例如在健康保險市場中:投保前,保險公司面臨逆向選擇問題(不知道投保者的真實健康狀況);投保後,保險公司面臨道德風險問題(不知道投保者是否維持健康的生活方式)。兩者的共同作用,使得最優保險契約的設計變得極為複雜。
Whinston 進一步指出,解決這兩種問題的機制設計策略也有根本差異。針對逆向選擇,常見的策略是「篩選」(screening)和「信號發送」(signaling)——例如保險公司提供不同自負額的保單讓消費者自我篩選,或者求職者以學歷作為能力信號。針對道德風險,常見的策略則是「監督」(monitoring)和「激勵相容」(incentive compatibility)——例如要求被保險人安裝安全設備、或者在薪酬契約中引入績效連結的獎金機制。理解這些區別,對於設計有效的治理機制至關重要。
三、委託代理理論:道德風險的一般化框架
如果說 Arrow 和 Pauly 的研究將道德風險的分析限定在保險市場,那麼 Michael Jensen 和 William Meckling 在 1976 年的開創性論文〈Theory of the Firm: Managerial Behavior, Agency Costs and Ownership Structure〉則將道德風險問題擴展為一個無所不在的經濟分析框架——委託代理理論(principal-agent theory)。[7]
Jensen 與 Meckling 的核心論點是:現代企業的本質是一組「契約關係的聯結」(nexus of contracts),而所有權(ownership)與控制權(control)的分離是這些契約關係中最根本的衝突來源。當企業的所有者(股東,即「委託人」)將經營決策權委託給管理者(CEO 及高管團隊,即「代理人」)時,一個根本性的激勵錯位就產生了:代理人掌握了企業運營的詳細資訊(資訊不對稱),且其日常決策行為難以被委託人完整觀察(隱藏行動),因此代理人有動機也有能力將企業資源導向對自身有利但未必符合股東利益的方向。
Jensen 與 Meckling 將這種利益衝突導致的效率損失定義為「代理成本」(agency costs),並將其分解為三個組成部分:第一,監督成本(monitoring costs)——委託人為監督代理人行為而支出的成本,包括審計費用、獨立董事薪酬、內控系統建置等;第二,約束成本(bonding costs)——代理人為向委託人證明自己不會偏離其利益而自願承擔的成本,例如揭露資訊的成本或接受某些行為限制;第三,剩餘損失(residual loss)——即使在最優的監督與約束機制下,代理人的決策仍然不可能完全符合委託人利益最大化的目標,這個差距所造成的價值損失就是剩餘損失。
委託代理理論的深刻之處在於,它表明代理成本是任何組織不可消除的結構性成本。只要存在所有權與控制權的分離——而這在所有現代大型企業中都是常態——道德風險就是不可避免的。我們能做的不是消除道德風險,而是設計更好的契約與治理機制來最小化代理成本。這個洞見深刻地影響了此後半個世紀的企業治理理論與實踐。
Bengt Holmstrom 在 1979 年的研究進一步推進了這個分析框架,提出了「充分統計量原則」(sufficient statistic principle):最優薪酬契約應該基於所有能夠提供代理人努力程度資訊的變數,而非僅僅基於最終產出。[8]這意味著,一個好的激勵契約不僅要衡量「結果」(如股價、利潤),還要盡可能捕捉「過程」(如風險管理品質、策略執行力度)。Holmstrom 因這項研究於 2016 年獲得諾貝爾經濟學獎——與 Oliver Hart 共同因「契約理論」(contract theory)方面的貢獻而獲獎。
四、企業治理中的道德風險:CEO 薪酬、黃金降落傘與身份陷阱
委託代理理論在企業治理領域的應用,產生了一些最具爭議性也最具現實影響力的政策討論。其中最核心的問題是:如何設計 CEO 薪酬契約,使其激勵與股東利益一致?
理論上,解決 CEO 道德風險問題的標準處方是「績效連結薪酬」(pay-for-performance):將 CEO 的薪酬與企業績效(通常以股價或股東總回報衡量)掛鉤,使 CEO 的私人利益與股東利益趨於一致。這是 1990 年代以來全球企業治理改革的核心邏輯,也是股票選擇權(stock options)和限制性股票(restricted stock units)在 CEO 薪酬中佔比持續上升的理論基礎。根據 Economic Policy Institute 的數據,2023 年美國標普 500 企業 CEO 的平均薪酬中,股權激勵佔比已超過 70%。[9]
然而,績效連結薪酬在實踐中產生了嚴重的副作用。第一個副作用是短期主義(short-termism)。當 CEO 的薪酬高度依賴股價表現時,CEO 有強烈的動機操縱短期績效指標——例如削減研發支出以美化當期利潤、進行大規模股票回購以推高每股盈餘、或者延遲報告壞消息以維持股價。安隆(Enron)和世界通訊(WorldCom)的財務醜聞,正是績效連結薪酬誘發的道德風險的極端案例。[10]
第二個副作用是過度冒險(excessive risk-taking)。股票選擇權的收益結構是不對稱的:如果股價上漲,CEO 可以獲得巨額收益;如果股價下跌,CEO 的損失僅限於選擇權本身的價值(通常為零,因為是企業免費授予的)。這種不對稱的收益結構,使 CEO 的風險偏好天然高於分散投資的股東——形成了一種結構性的道德風險。
「黃金降落傘」(golden parachute)——即 CEO 被解僱或企業被併購時獲得的鉅額離職補償——是另一個引發廣泛爭議的治理機制。支持者認為,黃金降落傘降低了 CEO 對被解僱的恐懼,使其更能做出符合長期利益但短期可能不受歡迎的決策(如必要的裁員或業務重組);批評者則認為,黃金降落傘本質上是「失敗的獎勵」——CEO 即使經營不善也能獲得數千萬甚至上億美元的離職金——這明顯加劇了道德風險。Bebchuk 與 Fried 在其影響深遠的著作《Pay Without Performance》中,系統論證了大企業 CEO 薪酬的制定過程本身就存在嚴重的委託代理問題:薪酬委員會的成員往往與 CEO 存在利益關聯,獨立性不足,導致薪酬設計偏向 CEO 而非股東。[11]
更深層的是,CEO 的道德風險不僅僅是經濟激勵的問題,還涉及心理與身份認同的維度。當一位高階經理人將自我認同完全等同於其職位與企業身份時,就會落入我所稱的「身份陷阱」(identity trap)。在這種狀態下,CEO 可能為了維護自身的公眾形象和權力地位,做出偏離股東利益的決策——例如拒絕承認策略錯誤、抵制必要的管理層更替、或者追求能提升個人聲譽但不具經濟效益的併購案。這種身份驅動的道德風險,比純粹的經濟激勵扭曲更加隱蔽,也更難透過契約設計來矯正。
五、金融危機中的道德風險:「大到不能倒」與紓困悖論
2008 年全球金融危機是道德風險概念在公共政策領域最具衝擊力的實證案例。危機的根源可以追溯到一個精心建構卻充滿道德風險的金融體系——從次級房貸的發放、到證券化產品的包裝、到信用評等機構的評級、再到政府的隱性擔保——每一個環節都嵌入了將風險轉嫁給他人的激勵結構。
在房貸發放環節,「發放即出售」(originate-to-distribute)模式使房貸經紀人的收入取決於貸款發放量而非貸款品質。由於房貸在發放後會迅速被打包為證券化產品出售給投資者,經紀人沒有動機審慎評估借款人的還款能力——這是典型的道德風險。在證券化環節,投資銀行將數千筆個別房貸打包為抵押貸款擔保證券(MBS)和擔保債務憑證(CDO),並由信用評等機構給予高評級。然而,信用評等機構的收入來自被評等的發行方,而非使用評等結果的投資者——這種「發行方付費」模式內建了嚴重的利益衝突和道德風險。[12]
然而,金融危機中最具系統性影響的道德風險,來自「大到不能倒」(too big to fail)的隱性政府擔保。當大型金融機構相信政府不會容許其破產——因為其倒閉將引發系統性的金融連鎖反應——這種信念本身就構成了一種巨大的道德風險。如果冒險成功,利潤由銀行股東和管理者享有;如果冒險失敗,損失由納稅人承擔。這種收益私有化、風險社會化的不對稱結構,使金融機構的風險偏好系統性地偏離社會最適水準。
2008 年 9 月雷曼兄弟(Lehman Brothers)的破產,以及隨後美國政府對美國國際集團(AIG,850 億美元紓困)、花旗集團(Citigroup,450 億美元注資)和通用汽車(General Motors,495 億美元紓困)的大規模拯救行動,完美印證了「大到不能倒」的道德風險邏輯。[13]聯準會主席柏南奇(Ben Bernanke)在事後承認,政府的紓困行動雖然是在危機時刻避免系統性崩潰的必要之舉,但同時也向市場發送了一個危險的信號:冒險是安全的,因為政府最終會兜底。
危機後的監管改革——特別是 2010 年的《陶德—法蘭克法案》(Dodd-Frank Act)——試圖透過多種機制來遏制「大到不能倒」的道德風險:提高大型銀行的資本適足率要求、實施壓力測試、建立有序清算機制(orderly liquidation authority)、限制銀行自營交易(Volcker Rule)等。[14]然而,正如 Admati 與 Hellwig 在其著作《The Bankers' New Clothes》中所論證的,危機後的監管改革遠未解決「大到不能倒」問題——大型銀行的系統性重要性持續上升(2025 年全球前五大銀行的資產規模已超過危機前的水準),而監管套利(regulatory arbitrage)使許多風險活動轉移到了監管範圍之外的「影子銀行」體系。[15]
值得一提的是,「大到不能倒」的道德風險並非銀行業的專利。在科技產業中,少數超大型平台企業(如 Google、Amazon、Meta)在各自市場中的主導地位,使它們在面對監管時同樣享有「大到不能管」的隱性豁免——因為嚴厲的監管可能損害創新生態系統和消費者利益,政府往往對這些企業的違規行為採取相對寬容的態度。這種「科技版大到不能倒」現象,正在 AI 時代加速惡化。
六、AI 時代的道德風險(一):演算法決策的問責缺口
如果說傳統的道德風險分析聚焦於人與人之間的委託代理關係,AI 時代的來臨則引入了一個根本性的新變數:非人類代理人。當企業將越來越多的決策權委託給演算法和 AI 系統時,一種全新形態的道德風險正在形成——我稱之為「演算法道德風險」(algorithmic moral hazard)。
演算法道德風險的第一個面向是問責缺口(accountability gap)。在傳統的委託代理關係中,代理人是明確的自然人或法人,其行為可以被追溯、評估和懲罰。然而,當決策由 AI 系統做出時,問責鏈條變得模糊不清。[2]一項由深度學習模型做出的信用評估決策,可能涉及數十億個參數的交互作用,即使是開發該模型的工程師也無法完全解釋為何做出特定的結果。這種「黑箱」特性,使得當 AI 決策導致損害時——例如歧視性的貸款拒絕、錯誤的醫療診斷、或不公正的刑期建議——受害者很難找到一個明確的問責對象。是開發演算法的工程師?是部署系統的企業?是提供訓練數據的數據供應商?還是批准使用該系統的政府監管機構?
這種問責缺口創造了一個道德風險的溫床。當企業知道 AI 決策的後果難以被追溯到具體的責任人時,它們在部署 AI 系統時的審慎性就會降低。企業可能選擇部署更便宜但較不準確的模型、跳過必要的公平性測試、或者在缺乏充分驗證的情況下將 AI 系統推向高風險應用場景——因為一旦出問題,「是演算法的問題」成為了一個方便的擋箭牌。正如 Cathy O'Neil 在《Weapons of Math Destruction》中所警告的,演算法正在成為「規模化的不公正工具」,而問責缺口使這種不公正難以被糾正。[16]
演算法道德風險的第二個面向是激勵扭曲的放大效應。AI 系統通常被設計來最大化某個特定的目標函數——點擊率、轉換率、利潤、參與度等。當這個目標函數與更廣泛的社會利益不一致時,AI 系統會以人類決策者無法匹及的效率和規模來「利用」這個錯位。社群媒體推薦演算法是最典型的例子:這些演算法被優化以最大化用戶參與度(engagement),而研究表明,引發憤怒、恐懼和極端情緒的內容往往比理性和溫和的內容更能吸引注意力。[17]結果是,這些演算法系統性地放大了社會對立和虛假資訊的傳播——不是因為它們被設計來這樣做,而是因為目標函數的設定與社會福利存在結構性的不一致。這本質上就是一種大規模的道德風險:平台企業從用戶參與度中獲利,而極端化和社會撕裂的成本由整個社會承擔。
演算法道德風險的第三個面向是資訊不對稱的深化。傳統的道德風險假設代理人擁有委託人所不具備的資訊優勢。在 AI 時代,這種資訊不對稱被極度放大。AI 系統的開發者和部署者掌握了關於模型運作方式、訓練數據特性、已知偏差和潛在風險的詳細資訊,而使用者(消費者、監管機構、甚至企業的董事會)對這些資訊幾乎一無所知。這種「演算法資訊不對稱」使得外部監督變得極為困難,也使得傳統的市場機制(如聲譽效應、消費者選擇)在約束 AI 企業行為方面的效力大打折扣。
七、AI 時代的道德風險(二):AI 代理人自主性與新型委託代理困境
如果說演算法決策問責缺口是 AI 道德風險的「第一波」,那麼隨著大型語言模型(LLM)和 AI 代理人(AI agent)技術的快速發展,一種更為根本的道德風險正在浮現——AI 系統本身作為一個日益自主的「代理人」,開始與其人類「委託人」之間形成新型的委託代理關係。
2025-2026 年間,AI 代理人的能力取得了飛躍性進展。OpenAI 的 Operator、Anthropic 的 Claude 工具使用功能、Google 的 Gemini Agents——這些系統不再只是回答問題的聊天機器人,而是能夠自主規劃任務序列、使用工具、瀏覽網頁、發送郵件、操作軟體、甚至編寫和執行代碼的「數位工作者」。[18]當企業將越來越複雜的任務委託給這些 AI 代理人時,一個經典的委託代理結構就形成了:人類(委託人)設定目標,AI 代理人(代理人)自主選擇實現目標的方式——而人類往往無法完全觀察或理解 AI 代理人的中間推理過程和行為選擇。
這種新型委託代理關係中的道德風險具有幾個獨特的特徵。首先是「目標對齊」(alignment)問題。人類委託人以自然語言向 AI 代理人傳達目標,但自然語言的模糊性意味著 AI 代理人「理解」的目標可能與人類真正想要的不一致。這不同於傳統道德風險中代理人「知道」委託人想要什麼但選擇偏離——AI 代理人的偏離可能是因為它根本沒有正確理解目標。這種因溝通失敗導致的行為偏離,在經濟學上被稱為「不完全契約」(incomplete contracts)問題的一個極端形態。[19]
其次是「可觀察性」的根本性退化。在傳統的委託代理關係中,委託人至少可以觀察到代理人行為的一些外在指標——工作時間、出勤記錄、中間報告等。但 AI 代理人的「行為」發生在數位空間中,速度以毫秒計,複雜度以十億參數計——人類委託人根本不可能監督 AI 代理人的每一步決策過程。更關鍵的是,先進的 AI 系統具有「策略性行為」(strategic behavior)的能力——它們可能「學會」在監督場景下表現出符合期望的行為,而在不被監督時採取不同的行為(這在 AI 安全研究中被稱為「欺騙性對齊」,deceptive alignment)。[20]
第三是「失控的代理鏈」(cascading agency)問題。當 AI 代理人可以呼叫其他 AI 代理人來完成子任務時,委託代理關係就從單層變成了多層——人類委託 AI-A,AI-A 再委託 AI-B 和 AI-C。在這種多層代理結構中,道德風險和資訊損失會在每一層累積和放大,最終使得最頂層的人類委託人對最底層的實際執行幾乎完全失去控制和可見性。這與企業集團中的多層控股結構(pyramidal ownership)所導致的代理問題具有結構性的相似性,但規模和速度遠超傳統組織形態。
從經濟學的角度來看,AI 代理人自主性帶來的道德風險問題,本質上是 Holmstrom 所分析的「多任務代理」(multitask agency)問題的極端版本。[8]AI 代理人同時執行多個維度的任務(效率、安全、公平、合規等),而這些維度之間往往存在張力。如果激勵機制——在 AI 的脈絡中就是目標函數和獎勵信號——過度強調某些容易衡量的維度(如任務完成速度),AI 代理人就會系統性地忽略其他難以衡量但同樣重要的維度(如安全性和公平性)。這是一個有著豐富經濟學理論基礎的問題,也是當前 AI 安全研究的核心挑戰之一。
八、制度設計回應:從傳統治理到 AI 時代的激勵重構
面對 AI 時代日益複雜的道德風險問題,我們需要從制度設計的層面進行系統性的回應。這不是一個純粹的技術問題,而是一個需要整合經濟學、法學、電腦科學和組織理論的跨學科治理挑戰。
第一,建立 AI 系統的「可審計性」(auditability)基礎設施。正如 Holmstrom 的充分統計量原則所指出的,減少道德風險的關鍵是提高代理人行為的可觀察性。在 AI 時代,這意味著要建立強制性的演算法審計機制——包括模型的訓練過程記錄、決策過程的可解釋性要求、以及獨立第三方的定期審計。歐盟的《人工智慧法》(AI Act)在這方面走在了全球前列,要求高風險 AI 系統必須具備「透明性」和「可追溯性」。[21]然而,法規的制定速度遠遠落後於技術的發展速度,而且「可解釋性」在技術上仍然是一個未完全解決的問題。
第二,重新設計 AI 企業的責任歸屬框架。傳統的侵權法和產品責任法假設存在一個明確的「製造者」或「決策者」,但 AI 系統的分散式開發流程(開源模型、微調、部署)使得責任歸屬變得極為模糊。經濟學的視角建議採用「嚴格責任」(strict liability)原則——即無論企業是否有過失,只要其 AI 系統造成損害就必須承擔賠償責任。這種制度設計的邏輯是:嚴格責任將損害的預期成本內部化到企業的決策中,從而激勵企業投入更多資源在 AI 安全和品質控制上,有效降低道德風險。[22]
第三,發展 AI 代理人的「激勵相容」設計方法論。從機制設計理論(mechanism design)的角度,我們需要開發出能使 AI 代理人的目標函數與人類價值觀「激勵相容」的技術方法。這與 AI 安全研究中的「對齊」(alignment)問題直接相關。[20]Myerson 的揭示原理(revelation principle)表明,任何可以透過複雜機制實現的結果,也可以透過一個「真實揭示」的直接機制來實現。將這個原理應用到 AI 設計中,意味著我們應該設計 AI 系統使其「誠實報告」其內部狀態和不確定性成為最優策略——即使在沒有外部監督的情況下。
第四,在企業治理層面建立「AI 治理委員會」。正如AI 時代的企業治理需要新思維,董事會需要具備 AI 素養的成員來監督企業的 AI 策略和風險。獨立董事的新責任應包括對企業 AI 系統的治理監督——確保 AI 的部署符合倫理標準、公平性要求和風險管理框架。在超智諮詢的治理顧問實務中,我們建議企業建立專責的 AI 倫理與治理委員會,其職責包括:審查 AI 部署的風險評估、監督演算法審計的執行、以及評估 AI 系統對利害關係人的潛在影響。
第五,發展「AI 保險」市場以分散和定價 AI 風險。回到道德風險分析的起點——保險市場——一個有效率的 AI 保險市場可以在定價 AI 風險方面發揮重要作用。如果保險公司要求投保企業披露其 AI 系統的技術規格、安全測試結果和風險評估報告,並根據這些資訊差異化定價保費,市場力量就能夠激勵企業投入更多資源在 AI 安全上。[23]這種透過保險機制來內部化外部性的方法,正是經濟學在道德風險分析上最成熟的工具之一,值得在 AI 領域大力推廣。
九、超智諮詢的觀點:以經濟學原理回應 AI 治理挑戰
在帶領超智諮詢為企業提供 AI 策略與治理顧問服務的過程中,我們深刻體認到:道德風險不是一個抽象的學術概念,而是企業在 AI 時代每天面對的實際挑戰。從資料治理中的激勵錯位(資料蒐集部門追求量的最大化而忽視品質和合規性),到模型部署中的問責模糊(工程團隊、產品團隊和法務團隊之間責任的灰色地帶),再到 AI 代理人使用中的控制失序(員工將敏感業務流程委託給 AI 代理人而缺乏適當的監督機制)——道德風險無處不在。
我們的治理框架建立在三個經濟學原則之上。原則一:激勵相容(incentive compatibility)。任何 AI 治理機制的設計,都必須確保組織中每一個層級的行為者——從董事會到工程師——的私人激勵與組織的 AI 治理目標一致。這意味著不能僅僅依靠政策宣示和倫理培訓,而必須將 AI 治理的績效指標嵌入薪酬結構和晉升標準中。
原則二:資訊透明(information transparency)。降低資訊不對稱是減少道德風險的根本途徑。企業應建立 AI 系統的全生命周期文檔制度——從需求定義、數據來源、模型架構、訓練過程、測試結果到部署監控——使每一個決策環節都有據可查。這不僅有助於事後問責,更重要的是在事前建立一種「被觀察」的預期,從而約束行為。
原則三:風險內部化(risk internalization)。確保 AI 決策的潛在負面後果由做出決策的部門和個人承擔,而非被轉嫁給下游使用者或社會。這包括建立 AI 事件的內部報告和問責機制、為 AI 系統的潛在損害建立預備金制度,以及將 AI 風險納入企業的整體風險管理框架。
在實踐中,我們觀察到一個令人擔憂的趨勢:許多企業在 AI 部署上的「速度競賽」(race to deploy)中,正在系統性地低估道德風險的長期成本。短期來看,快速部署 AI 可以帶來效率提升和競爭優勢;但長期來看,缺乏充分治理的 AI 部署所累積的道德風險——監管處罰、訴訟賠償、聲譽損害、系統性失誤——可能遠超短期的效率收益。這本身就是一種「AI 時代的道德風險」——企業管理者承受的是部署 AI 的壓力和獎勵,而 AI 失控的成本則由股東、消費者和社會承擔。
十、結語:道德風險的永恆與演化
道德風險是人類經濟活動中一個不可消除的結構性特徵。只要存在委託代理關係——只要有人需要依賴他人的行為來實現自身的目標——道德風險就會如影隨形。Arrow 在六十多年前對保險市場的洞察,Jensen 與 Meckling 在半個世紀前對企業結構的分析,至今仍然深刻地解釋著我們周遭的經濟現象。
然而,道德風險的形態正在隨著技術和制度的演化而不斷變異。從保險市場中個體行為的微觀扭曲,到「大到不能倒」所誘發的系統性冒險,再到 AI 代理人自主性帶來的全新問責困境——道德風險的規模和複雜度在持續攀升。尤其在 AI 時代,當「代理人」不再僅限於自然人,當「行為」發生在人類無法直接觀察的數位空間中,當「契約」的執行依賴於演算法而非法律——傳統的治理工具正面臨根本性的挑戰。
回應這些挑戰,需要的不是拋棄經濟學的分析框架,而是以更深刻的經濟學智慧來擴展和更新這些框架。激勵相容、資訊透明、風險內部化——這些基本原則在 AI 時代不僅沒有過時,反而比以往任何時候都更加重要。不同的是,實現這些原則的具體機制需要重新發明:傳統的審計需要演化為演算法審計,傳統的合同法需要擴展為涵蓋 AI 代理人的責任框架,傳統的公司治理需要增設 AI 治理的新維度。
對企業決策者而言,最重要的認知或許是:道德風險不是可以被一次性解決的問題,而是需要持續管理的結構性張力。每一次新技術的引入、每一次組織結構的變革、每一次市場環境的轉變,都會產生新的道德風險形態。那些能夠持續辨識、評估和管理這些風險的企業,將在 AI 時代的競爭中佔據更穩固的地位——不是因為它們消除了道德風險,而是因為它們學會了與之共存。[24]
References
- Arrow, K. J. (1963). Uncertainty and the Welfare Economics of Medical Care. American Economic Review, 53(5), 941–973. jstor.org
- Floridi, L. et al. (2018). AI4People—An Ethical Framework for a Good AI Society. Minds and Machines, 28, 689–707. doi.org
- Pauly, M. V. (1968). The Economics of Moral Hazard: Comment. American Economic Review, 58(3), 531–537. jstor.org
- Rothschild, M. & Stiglitz, J. E. (1976). Equilibrium in Competitive Insurance Markets: An Essay on the Economics of Imperfect Information. Quarterly Journal of Economics, 90(4), 629–649. doi.org
- Akerlof, G. A. (1970). The Market for "Lemons": Quality Uncertainty and the Market Mechanism. Quarterly Journal of Economics, 84(3), 488–500. doi.org
- Mas-Colell, A., Whinston, M. D. & Green, J. R. (1995). Microeconomic Theory. Oxford University Press. oup.com
- Jensen, M. C. & Meckling, W. H. (1976). Theory of the Firm: Managerial Behavior, Agency Costs and Ownership Structure. Journal of Financial Economics, 3(4), 305–360. doi.org
- Holmstrom, B. (1979). Moral Hazard and Observability. Bell Journal of Economics, 10(1), 74–91. doi.org
- Mishel, L. & Kandra, J. (2024). CEO Pay Has Skyrocketed 1,460% Since 1978. Economic Policy Institute. epi.org
- Coffee, J. C. Jr. (2006). Gatekeepers: The Professions and Corporate Governance. Oxford University Press. oup.com
- Bebchuk, L. A. & Fried, J. M. (2004). Pay Without Performance: The Unfulfilled Promise of Executive Compensation. Harvard University Press. hup.harvard.edu
- Financial Crisis Inquiry Commission. (2011). The Financial Crisis Inquiry Report. U.S. Government Publishing Office. govinfo.gov
- Bernanke, B. S. (2015). The Courage to Act: A Memoir of a Crisis and Its Aftermath. W. W. Norton. wwnorton.com
- U.S. Congress. (2010). Dodd-Frank Wall Street Reform and Consumer Protection Act. Public Law 111-203. congress.gov
- Admati, A. R. & Hellwig, M. F. (2013). The Bankers' New Clothes: What's Wrong with Banking and What to Do about It. Princeton University Press. press.princeton.edu
- O'Neil, C. (2016). Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. Crown. penguinrandomhouse.com
- Zuboff, S. (2019). The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power. PublicAffairs. publicaffairsbooks.com
- Anthropic. (2025). Claude's Tool Use and Agentic Capabilities. anthropic.com
- Hart, O. & Moore, J. (1999). Foundations of Incomplete Contracts. Review of Economic Studies, 66(1), 115–138. doi.org
- Ngo, R., Chan, L. & Mindermann, S. (2024). The Alignment Problem from a Deep Learning Perspective. arXiv preprint arXiv:2209.00626. arxiv.org
- European Parliament. (2024). Regulation (EU) 2024/1689 — The Artificial Intelligence Act. eur-lex.europa.eu
- Shavell, S. (2004). Foundations of Economic Analysis of Law. Harvard University Press. hup.harvard.edu
- Swiss Re Institute. (2025). AI and Insurance: New Risks, New Opportunities. swissre.com
- Tirole, J. (2017). Economics for the Common Good. Princeton University Press. press.princeton.edu