2024年2月、カナダ・ブリティッシュコロンビア州の民事紛争解決審判所は、AI法史における画期的な判決を下した。エア・カナダは、同社のカスタマーサービスチャットボットが乗客Jake Moffattに約束した忌引き割引を履行するよう命じられた——たとえその割引ポリシーが実際には存在していなくとも。[1]エア・カナダはチャットボットが「独立した法的主体」であり、その発言は会社の立場を代表しないと主張した。審判所はこの主張を退け、企業は自社が導入したAIシステムのすべてのアウトプットに対して責任を負うと判示した——そのアウトプットが正確か否かにかかわらず。この事案は一見単純に思えるが、AI時代の最も根本的な法的問題の一つに触れている。AIエージェントが自律的に判断を下し、人間と対話し、あるいは損害を引き起こしたとき、誰が法的責任を負うべきなのか?これは学術的な抽象論ではない——エージェント型AIが研究室から商業展開へと移行するにつれ、AIシステムはますます複雑なタスクを自律的に遂行している。航空券の予約、投資ポートフォリオの管理、法的文書の起草、さらには医療診断の補助まで。あらゆる自律的な判断が、責任帰属に関する潜在的な法的リスクを内包する。ケンブリッジ大学でテクノロジーガバナンス研究に従事した経験と、現在Meta Intelligenceを率いて企業向けAIシステムを導入する実務から、AI責任は単なる技術的法律問題ではなく、効率性、公平性、イノベーション・インセンティブを包含する制度設計の課題であると深く認識している。

一、従来の法的枠組みの三重のジレンマ

AI責任問題の困難さを理解するには、まず既存の法的枠組みがなぜ直接適用できないかを理解する必要がある。

代理法のジレンマ。伝統的な代理法は「本人」と「代理人」の間の法的関係を規律する——代理人は本人の授権の範囲内で行為し、その行為の法的効果は本人に帰属する。[2]一見、AIエージェントは人間の代理人と構造的類似性を有する。企業(本人)がAIエージェント(代理人)を導入して代理的にタスクを遂行させる。しかし代理法の核心的前提は、代理人が法的行為能力——自己の行為の法的意味を理解し責任を負う能力——を有することである。AIにはこの能力がない。さらに根本的なのは、代理法は代理人の行為が本人によって合理的に予見・制御可能であることを前提としているが、深層学習を使用するAIシステムの場合、特定の状況における具体的なアウトプットは開発者自身にとっても予測不可能なことが多い。[3]エア・カナダの事案では、チャットボットを「独立した主体」と主張する航空会社の防御戦略は、まさにこの代理法のギャップを利用しようとするものだった——AIが適格な代理人でないならば、企業はなおその行為に責任を負うべきか?審判所の答えは明確であった。はい。しかしこの答えは代理法の理論的再構築よりも、消費者保護の政策的考慮に基づくものであった。

製造物責任法のジレンマ。伝統的な製造物責任法は製品を有体物として分類し、「製造上の欠陥」「設計上の欠陥」「警告上の欠陥」に基づいてメーカーの厳格責任を決定する。[4]AIシステムはこの枠組みの複数の前提に挑戦する。第一に、AIはソフトウェアであり有体物ではない——ほとんどの製造物責任法の「製品」の定義が純粋なソフトウェアを包含するかは、各法域で未解決のままである。第二に、AIシステムは継続的に学習する——リリース後にファインチューニングや再学習を経たAIモデルは、リリース時点とは著しく異なる行動特性を示す可能性があり、「欠陥」の時点を特定することが困難になる。第三に、AIの行動は文脈依存的である——同じモデルが異なる入力と異なる文脈でまったく異なるアウトプットを生み出す可能性があり、「設計上の欠陥」の判断基準が曖昧になる。[5]

過失法のジレンマ。過失不法行為の核心的要素は、被告が「合理的注意義務」に違反し、原告に予見可能な損害を引き起こしたことである。[6]AI文脈では、各要素が曖昧になる。「合理的注意義務」の基準とは何か——業界のベストプラクティスか?現在の技術で達成可能な最低ハルシネーション率か?人間の専門家と同等の正確率か?統計的学習システムにおいて「予見可能性」とは何を意味するか——開発者はモデルが「時々誤る」ことを予見できるが、どの特定の状況でどの特定の誤りを犯すかは予測できない。[7]複雑なAI意思決定チェーンにおいて「因果関係」はいかにして立証されるか——AIエージェントが複数のサブモジュールのカスケードされたアウトプットに基づいて最終判断を下す場合、どのリンクの「誤り」が損害の法的原因なのか?

二、法と経済学の分析:最適責任ルールの設計

法と経済学は、AI責任の制度設計のための規範的分析枠組みを提供する。Guido Calabresiはその古典的著作『事故の費用』の中で、事故責任制度の目標は「事故の社会的総費用の最小化」——事故そのものの損害、事故予防の費用、事故処理の管理費用を含む——であるべきだと提唱した。[8]

この枠組みの下で、最適なAI責任ルールは3つの条件を満たすべきである。第一に、正しい予防インセンティブを創出すること——責任は最も低いコストで損害を防止できる当事者(「最小費用回避者」)に配分されるべきである。AIサプライチェーンにおいて、最小費用回避者は通常AIシステムの開発者と導入者であり、エンドユーザーではない——前者はシステムの安全性を向上させる技術的能力を有するが、後者は一般にAIの行動を理解し修正する能力を持たないからである。[9]

第二に、イノベーションを過度に阻害しないこと。責任ルールが過度に厳格な場合——例えばすべてのAIエラーに対して絶対的厳格責任を課す場合——企業は社会的に価値あるAIアプリケーションの開発と展開を放棄する可能性がある。Steven Shavellの分析は、加害者の活動水準が可変の場合、厳格責任は過失責任より優れていることを示す。なぜなら厳格責任は加害者に最適な予防水準と最適な活動水準の両方を同時にインセンティブ付けるからだ。[10]ただし、この結論はAI文脈では慎重に適用されなければならない——厳格責任がAI医療診断システムを責任リスクのために市場から撤退させた場合、社会はその技術が本来救えたはずの命を失う可能性がある。

第三に、情報の非対称性を軽減すること。AIシステムの内部動作は通常、被害者にとって不透明である——彼らはモデルの訓練データ、アーキテクチャの選択、既知の限界を知ることができない。この情報の非対称性により、従来の過失制度の下では被害者が開発者の「過失」を証明することはほぼ不可能となる。[11]EU AI責任指令案はこの問題に「立証責任の転換」と「情報開示請求権」を導入して対処する——被害者がAIシステム提供者に関連する技術情報の開示を請求でき、特定の条件の下で因果関係の成立が推定され、被告に反証の責任が移転される。

ゲーム理論の観点から、AI責任ルールの設計は「メカニズムデザイン」問題としてモデル化できる——設計者(立法者)は、そのルールの下ですべての参加者(開発者、導入者、ユーザー)の利己的行動が社会的に最適な結果をもたらすような一連のルールを考案する必要がある。最適なメカニズムは「誘因両立性」を備えるべきである——つまり各当事者が自己の利益を追求する中で、自然に社会全体の厚生に資する行動を取るようになることだ。

三、EUモデル:AI責任指令と改正製造物責任指令

EUはAI責任の制度構築において世界の最前線にあり、2つの補完的な立法提案を提示している。

AI責任指令(AILD)は2022年9月に提案され、非契約的民事責任ルールをAIシステムに適応させることを目的としている。[12]その核心的革新は2つのメカニズムを含む。第一に、「立証責任の推定」——原告が被告が特定の注意義務(EU AI法が規定するものなど)を遵守しなかったことを示し、AIアウトプットに関連する損害が存在する場合、被告が反証しない限り因果関係が推定される。これにより被害者の立証負担が大幅に軽減される。第二に、「開示請求権」——被害者は裁判所に対し、高リスクAIシステムの提供者またはユーザーに損害に関連する技術的証拠の開示を命じるよう申し立てることができる。この権利はAIシステムの「ブラックボックス」性質に起因する情報の非対称性に直接対処する。

改正製造物責任指令(PLD)の改正も同様に広範な影響を持つ。2024年に採択された新PLDは「ソフトウェア」を「製品」の定義に明示的に含めた——AIシステムとAI駆動型サービスを包含する。[13]これはAIソフトウェア開発者が従来のメーカーと同様に、自社製品の欠陥に対して厳格責任(過失の証明なしに)を負うことを意味する。さらに重要なのは、新PLDが「製品の欠陥」の定義を拡大し、製品が市場に投入された後の継続的学習から生じる欠陥を含めたことだ——AIシステムの「動的進化」という特性に直接対処している。

これら2つの法律の複合的効果は「二軌制」の確立である。高リスクAIシステム(EU AI法で定義されるもの)には厳格責任(新PLDを通じて)と立証責任の転換(AILDを通じて)が適用され、その他のAIシステムには開示メカニズムを備えた過失責任が適用される。[14]この設計はリスク階層型ガバナンスの哲学を反映している——責任の厳格さはAIシステムのリスクレベルに比例する。

四、自動運転:責任帰属の最前線

自動運転はAI責任の最も具体的かつ緊急性の高い適用シナリオである。SAE Internationalが定義する運転自動化の6段階分類(レベル0からレベル5)は、単なる技術基準ではなく、責任移転のスペクトルでもある。[15]

レベル2(部分的自動化、テスラのオートパイロットなど)では、人間のドライバーがシステムの動作を継続的に監視しなければならず、責任主体は明確に人間のドライバーである。しかし自動化がレベル3(条件付き自動化)以上に上がると、人間は「ドライバー」から「乗客」へと移行し、責任の中心は必然的に個人からシステムの開発者と導入者へと移る。[16]

各国は異なる立法戦略を採用している。ドイツは2021年に道路交通法(StVG)を改正し、レベル4自動運転の法的枠組みを世界で初めて確立した。この法律はレベル4車両に「技術監督者」の装備を義務付け、最大1,000万ユーロの専用補償基金を設立した。[17]英国は2024年に自動車両法を成立させ、「認可自動運転事業体」(ASDE)の概念を導入した——ASDEが自動運転モード中の事故について一次的民事責任を負い、従来のドライバー責任に取って代わる。[18]米国は断片的な状況を呈しており、統一的な連邦法がなく、各州が独自のルールを策定し、カリフォルニア、アリゾナ、テキサスの基準はすべて異なる。

テスラの事案はAI責任紛争を窺う窓を提供する。2023年から2025年にかけて、テスラのオートパイロットと「フルセルフドライビング」(FSD)が関与する複数の死亡事故が米国で広範な訴訟を引き起こした。テスラの防御戦略はFSDがレベル2の運転支援システムに過ぎず、人間のドライバーが常に引き継ぐ準備をしていなければならないというものだ——したがって責任は人間にある。しかし原告側弁護士は、テスラのマーケティング用語(「フルセルフドライビング」)が「システムが自律的に運転できる」という合理的な期待を生み出しており、製造物責任法上の「警告上の欠陥」を構成すると反論する。[19]これらの事案はより広範な緊張を明らかにしている。AI企業はマーケティング時にはシステムの自律的能力を誇張する傾向があるが、責任に直面すると人間の監視の必要性を強調する——この「責任回避の二重基準」は、AI責任ガバナンスが正面から取り組むべき問題である。

五、AI責任保険:リスク分散の市場メカニズム

法的責任枠組みの有効な機能には保険市場の支援が必要である。AI開発者と導入者が直面する潜在的責任が保険不可能な場合、彼らは社会的に価値あるAIシステムの開発や導入を選択しない可能性がある——これは社会的損失を意味する。

AI責任保険は急速に発展する新興市場である。2024年から2025年にかけて、ロイズ・オブ・ロンドン、AXA、ミュンヘン再保険などの保険大手がAI責任保険専用の商品を投入した。[20]しかしAIシステムのアクチュアリー科学は固有の課題に直面する。従来の保険数理手法はリスク確率と損失分布を推定するために広範な過去の損失データに依存する——しかしAI技術の急速な進化は過去のデータの予測価値を限定的にする。さらに、AIの「テールリスク」(低確率・高インパクトの事象)——大規模な自動取引システムの障害や連鎖的な自動運転車事故など——は従来の保険の引受能力を超える可能性がある。

可能な制度的イノベーションとして「AI損害補償基金」がある——環境汚染損害補償基金や原子力事故補償基金に類似したものだ。[21]AIサプライチェーンの参加者(開発者、導入者)が比例配分で基金に拠出し、基金はAIによる損害の補償に使用される。この集合的リスク分散メカニズムは個別企業が負担できない大規模損害の問題に対処でき、差別化された拠出率(AIシステムのリスクレベルに基づく)によって正しい予防インセンティブを創出する。ドイツの自動運転法における1,000万ユーロの補償基金は、この方向での先駆的実験と見なすことができる。

六、台湾の制度構築:基本法から実施規則へ

台湾の人工知能基本法(2025年)は「人間中心」「安全で信頼できる」「公平で透明」などの基本原則を確立したが、AI責任の具体的な制度設計においては大きなギャップが残っている。[22]

現在、台湾におけるAI関連損害の法的処理は主に3つの既存枠組みに依存している。民法の不法行為規定(第184条の過失責任、第191条の1のメーカー責任)、消費者保護法(第7条の事業者責任)、セクター別立法(医療法、金融消費者保護法など)である。[23]しかし前述の分析が明らかにしたように、これらの枠組みはすべてAIシステムの固有の特性に直面した場合に適用上の困難を抱えている。

台湾は人工知能基本法の枠組みの下でAI責任の専用実施規則を策定すべきだと考える。具体的な提言は以下の通りである。

第一に、リスク階層型責任モデルを採用する。EUの二軌制設計を参考にし、高リスクAIシステム(医療診断、信用評価、自動運転など)には厳格責任または推定過失を適用し、一般的なAIシステムには過失責任を維持しつつ立証メカニズムを強化する。リスク階層は台湾の将来のAIリスク分類枠組みと整合させるべきである。

第二に、AI損害請求のための立証支援メカニズムを確立する。EU AILDの「開示請求権」設計を参考にし、訴訟において被害者がAIシステム提供者に損害に関連する技術情報の開示を要求できるようにする——訓練データの出所、モデルの既知の限界、アウトプットの判断ロジック(技術的に実現可能な範囲で)を含む。

第三に、AI責任保険と補償基金制度を検討する。高リスクAIアプリケーション(自動運転など)については、提供者に最低限の責任保険加入または補償基金への拠出を義務付ける。これにより被害者の補償請求権を保障するとともに、AI産業に予測可能なリスク管理枠組みを提供する。

七、結論:信頼のインフラとしての責任

AI責任枠組みの構築は、本質的に一つの社会契約の問いへの回答である。どのような条件の下で、我々は自律的AIシステムに意思決定権を委譲する意思があるのか?その答えは必然的に「無条件の信頼」でも「完全な拒絶」でもなく、「適切な責任メカニズムによって保障された条件付き信頼」である。

よく設計されたAI責任枠組みは3つの目標を同時に達成すべきである。被害者を保護する——AIシステムによって損害を受けた個人が合理的な補償を得られることを保証する。安全性をインセンティブ付ける——AI開発者と導入者が損害防止のために適切なリソースを投入するよう促す。そしてイノベーションを促進する——過度な責任リスクによって社会的に価値あるAIアプリケーションの開発と展開を阻害しない。これら3つの目標の間には緊張が存在し、いかなる責任ルールもそれらの間の動的均衡を見出す試みを表している。

エア・カナダの事案の教訓に立ち返る。企業は一方でAI自動化の効率性の恩恵を享受しながら、他方でAIのエラーを「独立したシステム」に帰属させようとすることはできない。AIを導入するという判断は利益をもたらし、それに対応する責任も伴わなければならない——これは市場経済の根本原則であり、意思決定者が人間からアルゴリズムに移ったからといって変わるものではない。AIエージェント経済が急速に拡大する時代において、明確で公正かつ執行可能な責任枠組みを確立することはイノベーションの障害ではなく、イノベーションが依拠する信頼のインフラなのである。

参考文献

  1. Moffatt v. Air Canada (2024). Civil Resolution Tribunal, British Columbia. Decision No. 2024 BCCRT 149. canlii.org
  2. Restatement (Third) of Agency. (2006). American Law Institute.
  3. Chopra, S. & White, L. F. (2011). A Legal Theory for Autonomous Artificial Agents. University of Michigan Press.
  4. Restatement (Third) of Torts: Products Liability. (1998). American Law Institute. §§ 1-2.
  5. Selbst, A. D. (2020). Negligence and AI's Human Users. Boston University Law Review, 100(4), 1315–1376. bu.edu
  6. Prosser, W. L. (1971). Handbook of the Law of Torts (4th ed.). West Publishing.
  7. Scherer, M. U. (2016). Regulating Artificial Intelligence Systems: Risks, Challenges, Competencies, and Strategies. Harvard Journal of Law & Technology, 29(2), 353–400. jolt.law.harvard.edu
  8. Calabresi, G. (1970). The Costs of Accidents: A Legal and Economic Analysis. Yale University Press.
  9. Shavell, S. (2004). Foundations of Economic Analysis of Law. Harvard University Press.
  10. Shavell, S. (1980). Strict Liability versus Negligence. The Journal of Legal Studies, 9(1), 1–25. doi.org
  11. Buiten, M. C. (2019). Towards Intelligent Regulation of Artificial Intelligence. European Journal of Risk Regulation, 10(1), 41–59. doi.org
  12. European Commission. (2022). Proposal for a Directive on adapting non-contractual civil liability rules to artificial intelligence (AI Liability Directive). COM(2022) 496 final. eur-lex.europa.eu
  13. European Parliament and Council. (2024). Directive (EU) 2024/2853 on liability for defective products (Revised Product Liability Directive). eur-lex.europa.eu
  14. Wendehorst, C. (2023). Liability for AI-Based Products and Services. In The Cambridge Handbook of Responsible Artificial Intelligence. Cambridge University Press.
  15. SAE International. (2021). Taxonomy and Definitions for Terms Related to Driving Automation Systems for On-Road Motor Vehicles. SAE J3016. sae.org
  16. Geistfeld, M. A. (2017). A Roadmap for Autonomous Vehicles: State Tort Liability, Automobile Insurance, and Federal Safety Regulation. California Law Review, 105(6), 1611–1694. doi.org
  17. Bundesministerium für Digitales und Verkehr. (2021). Gesetz zum autonomen Fahren (Autonomous Driving Act). BGBl. I S. 3108. bmdv.bund.de
  18. UK Parliament. (2024). Automated Vehicles Act 2024. legislation.gov.uk
  19. Reuters. (2025). Tesla faces lawsuits over Autopilot and Full Self-Driving crashes. reuters.com
  20. Lloyd's of London. (2024). AI Risk: The Insurance Opportunity. lloyds.com
  21. Vladeck, D. C. (2014). Machines without Principals: Liability Rules and Artificial Intelligence. Washington Law Review, 89(1), 117–150. digitalcommons.law.uw.edu
  22. 行政院 (2025). 人工知能基本法. 行政院
  23. 全國法規資料庫. 民法、消費者保護法. law.moj.gov.tw
インサイト一覧に戻る