人工知能(AI)の急速な発展は、世界中の法制度に前例のない課題を突きつけている。生成AIの著作権紛争から自動運転車の責任帰属、アルゴリズム意思決定の公平性と透明性に至るまで——これらの問題は法の最も根本的な概念的枠組みに触れるものだ。何をもって「創作」とするか?何をもって「過失」とするか?何をもって「差別」とするか?法学博士の研究背景を持ち、近年AIの技術応用に深く関わってきた研究者として、名古屋大学での法学教育、ケンブリッジ大学での技術政策研究、そして現在Meta Intelligenceを率いるAI開発の実践を通じて、法と技術の緊張関係に絶えず直面してきた。本稿では、AI時代の法的課題を著作権、責任、規制枠組みという3つの核心的次元から分析し、EU、米国、中国の比較分析に基づいて先見的な制度提言を行う。

一、AIの法的空白:なぜ現行法的枠組みは不十分なのか

近代法制度の基本的前提は、法的行為の主体が「人」(自然人または法人)であるということだ。すべての権利、義務、責任は「人」に帰属する。しかしAIの登場はこの前提を揺るがしている——アルゴリズムが自律的に絵画を生成し、融資拒否の判断を下し、あるいは交通事故を起こしたとき、法はどのように責任を割り当てるべきなのか?

この問いは純粋に理論的なものからは程遠い。法学研究のキャリアを通じて、AI法的影響の3つの波の進化を直接目撃してきた。

第1の波(2015〜2019年)は「狭いAI」から来た——特に金融、保険、刑事司法などの分野におけるアルゴリズム意思決定の応用である。銀行がAIモデルを使って融資申請を評価する場合、拒否された申請者は拒否の理由を知る権利があるか?裁判所がリスク評価アルゴリズム(米国のCOMPASシステムなど)を使って量刑判断を補助する場合、被告人はアルゴリズムのバイアスに異議を唱える権利があるか?これらの問いは手続的正義の核心に触れる——法の支配によって統治される社会では、個人の権利に影響を与えるすべての判断は説明可能かつ異議申立可能であるべきだ。しかしAIモデルの「ブラックボックス」性質(特に深層学習モデル)は「説明」を極めて困難にする。[1]

第2の波(2020〜2022年)は自動運転から来た。自動運転車が事故を起こしたとき、誰が責任を負うべきか——車両所有者か?製造者か?ソフトウェア開発者か?あるいはAIシステム自体か?伝統的な不法行為法は「過失」の概念に基づいて構築されている——注意義務を怠りそれによって損害を引き起こした当事者が損害賠償責任を負うべきだ。しかし自動運転では、「行為者」は法的な「注意義務」を持たないアルゴリズムであり、完全自動運転のシナリオでは人間のドライバーはそもそも事故に介入する機会がなかった可能性がある。この「責任のギャップ」は既存の不法行為法の適用に根本的な困難をもたらす。[2]

第3の波(2022年〜現在)は生成AIから来た。ChatGPT、Midjourney、Stable Diffusionなどの生成AIツールの爆発的普及は、AI法的課題を世間の注目の中心に押し出した。これらのツールは数秒で記事、画像、音楽、コードを生成できる——そしてこれらのアウトプットの法的地位は激しく争われている。著作権法で保護される「著作物」を構成するのか?AIモデルの訓練に著作権で保護されたデータを使用することは侵害を構成するのか?生成されたアウトプットと訓練データの「類似性」はどう評価すべきか?

これら3つの波は構造的な問題を明らかにしている。現行の法制度はAIが存在しない時代に構築されたものであり、その核心概念——創作者、過失、意図、人格——はすべて人間をデフォルトの主体として前提としている。AIが以前は人間が行っていた機能をますます多く引き受けるにつれ、法制度に必要なのは単なる「パッチ当て」ではなく「再構築」だ——基本概念の再定義、責任枠組みの再設計、権利と義務の配分の再均衡である。[3]

二、著作権のジレンマ:AIのアウトプットは誰のものか?

著作権法はおそらくAIの影響を最も劇的に受けている法的領域である。研究と実践において、AI著作権の問題を3つの層に分類する。AIアウトプットの著作物該当性、AI訓練の合法性、権利帰属の曖昧さである。

第1の層:AIのアウトプットは「著作物」を構成するか?著作権法は「著作者の独創的な表現」を保護する——ほとんどの法域で「著作者」は暗黙的または明示的に自然人と定義されている。米国著作権局は2023年のガイダンス文書で、人間の創造的関与なしにAIによって完全に生成されたコンテンツは著作権保護の要件を満たさないと明確に述べた。同年、Thaler v. Perlmutter事件で、米国の裁判所は著作権局の立場を支持し、AIシステムDALL-Eによって生成された画像は著作権法が人間の著作者性を要求するため著作権登録できないと判示した。[4]

しかし実際には、「完全にAI生成」と「完全に人間が創作」の間には広大なグレーゾーンが存在する。アーティストが詳細なプロンプトを丹念に作成し、選択と洗練を数十回反復し、最終的にAIのアウトプットから最終作品を選択・修正した場合——このプロセスにおける人間の創造的貢献はどう定量化すべきか?米国著作権局は2023年のZarya of the Dawn決定で初歩的な回答を示した。作品全体の「叙事的構成」には著作権があるが、AIが生成した個々の画像にはない。この「ケースバイケースの審査」アプローチは柔軟だが、大きな不確実性も導入する。

第2の層:AIの訓練は「フェアユース」を構成するか?生成AIモデルの訓練には膨大なデータ——テキスト、画像、音楽、コード——が必要であり、その多くは著作権で保護されている。訓練中、これらの保護された著作物は複製、分析、統計処理され、「学習された」パターンはモデルのパラメータにエンコードされる。このプロセスは「フェアユース」(米国法)または「テキスト・アンド・データ・マイニング例外」(EU法)を構成するか?

現在、いくつかの主要な訴訟が米国で係争中だ——The New York Times v. OpenAI、Getty Images v. Stability AI、複数の著者 v. Metaなど。これらの訴訟の中心的争点は、AI訓練が「フェアユース」の4要素テストを満たすかどうか——特に「原著作物の市場価値への影響」の要素である。AI開発者はAIが統計的パターンを学習するもので原著を複製するものではないため訓練は「変容的使用」だと主張する。一方、権利者はAIのアウトプットが市場で原著と直接競合し、経済的利益を深刻に損なっていると反論する。[5]

EUと日本はこの問題に対して異なる立法アプローチを取っている。EUのデジタル単一市場著作権指令(2019年)はテキスト・アンド・データ・マイニングに2つの例外を設けている。科学研究目的のマイニングは無制限、商業目的のマイニングは権利者の「オプトアウト」を認める。日本の著作権法第30条の4はより広い例外を提供する——著作物の「表現の享受」を目的としない場合の保護著作物の使用を許可し、これはAI訓練への一般的な許可として広く解釈されている。

第3の層:権利帰属の問題。AIのアウトプットが著作物と認められた場合でも、権利は誰に帰属すべきか——プロンプトの著者か?AIモデルの開発者か?訓練データの提供者か?現在、この問いに明確な立法的回答を持つ法域はない。この不確実性は商業利用に深刻な障害をもたらす——企業がAIを使ってマーケティングコピーや製品デザインを生成した場合、そのアウトプットの著作権を所有しているか?そうでなければ、競合企業は同じアウトプットを自由に使用できるのか?Meta Intelligenceで主導するAI開発プロジェクトにおいて、これらの問いはクライアントから最も頻繁に提起される法的懸念の一つである。[6]

三、責任枠組み:AIが損害を引き起こしたとき、誰が責任を負うか?

著作権の問題が「創作の権利」に関わるものだとすれば、責任の問題は「損害の帰属」に関わる。AIシステムの判断や行為が損害を引き起こした場合——融資審査における差別、医療における誤診、自動運転車の事故——既存の法はどのように責任を配分するか?

伝統的な責任法は3つの主要な帰属経路を提供する。過失責任(被告が合理的な注意を払わなかったことの証明)、製造物責任(製造者が欠陥製品に対して厳格責任を負う)、使用者責任(雇用者が被用者の不法行為に対して責任を負う)。AIシステムの特性はこれら3つの経路すべてに困難を生じさせる。

過失責任の困難は「予見可能性」にある。過失の成立には行為者がその行為が引き起こし得る損害を「合理的に予見できた」ことが必要だ。しかし深層学習モデルの挙動は本質的に予測不可能である——モデルの開発者でさえ、考えられるすべての入力条件の下でのモデルの挙動を完全に予測することはできない。医療AIがまれな症例で誤った診断を下した場合、開発者はこのエラーを「合理的に予見できた」のか?できなかったとすれば、過失責任は成立しない。

製造物責任の困難は「欠陥」の定義にある。伝統的な製造物責任法は設計上の欠陥、製造上の欠陥、警告上の欠陥の3種類を区別する。しかしAIシステムの「欠陥」はこれらのいずれにも該当しないことが多い——モデルの設計は合理的で、「製造」(訓練)にエラーがなく、適切な使用上の警告が付されていても、特定の状況で有害なアウトプットを生み出す可能性がある。さらにAIシステムは継続的に更新される——訓練されたモデルはオンライン学習を通じて挙動を常に調整し得るため、「出荷時」と「使用時」の製品の特性がまったく異なる可能性がある。EUのAI責任指令案(2022年)は「因果関係の反証可能な推定」を導入してこの問題に対処しようとしている——AIシステムが非準拠であり、この非準拠と損害の間の因果関係が合理的に推定される場合、因果関係が推定され、被告に反証の責任が移る。[7]

使用者責任の困難はAIが「被用者」ではないことにある。使用者責任は雇用関係の存在を前提とする——雇用者は業務範囲内で被用者が行った不法行為に対して責任を負う。一部の学者はAIシステムを「デジタル被用者」に類似するものとして扱い、AIを導入する組織に雇用者類似の責任を負わせることを主張する。この類推は特定のシナリオでは直感的な妥当性を持つ(例えば、銀行がAIを信用審査に使用することは信用アナリストを使用するのに類似する)。しかし理論的な課題にも直面する——使用者責任の基盤は雇用者の被用者行動に対する「支配」にあり、AIシステムの「自律学習」の性質は、導入者のAI行動に対する支配が人間の被用者に対する支配よりもはるかに小さい可能性があることを意味する。

実務的には、最も実現可能な方向は「リスクベースの階層型責任制度」を確立することだと考える——AIアプリケーションのリスクレベルに応じて異なる帰属基準を適用する。高リスクアプリケーション(医療診断、刑事司法、自動運転など)には厳格責任を適用すべきだ——導入者は過失の証明なしに補償責任を負う。なぜなら高リスクAIの導入という選択自体がリスクの引き受けを構成するからだ。中リスクアプリケーション(信用審査、保険料率設定など)には推定過失を適用すべきだ——導入者は合理的な注意を払ったことを証明しなければならない。低リスクアプリケーション(推薦システム、コンテンツ生成など)には通常の過失責任を適用すべきだ。この階層制度の精神はEU AI法の「リスクベースの階層規制」哲学と高度に一致している。[8]

四、グローバル規制比較:EU、米国、中国の3つの道

AI規制競争において、EU、米国、中国は根本的に異なる道を歩んでいる。これら3つのアプローチの違いは、異なる法的伝統、政治制度、戦略的優先事項の影響を深く反映している。

EUの道:「ルール先行+権利志向」。EU AI法は世界初の包括的AI立法であり、2024年に正式に採択された。「リスクベースの階層規制」アーキテクチャを採用し、AIシステムを4つのリスクカテゴリーに分類する。受容不可能なリスク(社会的スコアリングシステムやリアルタイム遠隔生体認証など——原則として禁止)、高リスク(医療機器や重要インフラ管理におけるAIなど——厳格なコンプライアンス要件の対象)、限定的リスク(チャットボットなど——透明性義務の対象)、最小リスク(スパムフィルターなど——追加規制なし)。[9]

EUの道の核心哲学は「基本的権利の保護」だ——AIの使用はEU市民のプライバシー権、非差別の権利、実効的救済の権利を含む基本的権利を侵害してはならない。この「権利志向」の規制哲学はEUのGDPRの直接的延長であり、欧州の法的伝統における個人の権利の高い評価を反映している。その強みは法的確実性と予見可能性にある——企業は何が許可され何が禁止されているかを明確に理解できる。その弱みはイノベーションを抑制する可能性にある——厳格なコンプライアンス要件は欧州企業を米国や中国の競合企業との AI開発競争で不利にし得る。

米国の道:「業界自主規制+執行ガイダンス」。EUの包括的立法とは対照的に、米国は連邦レベルの包括的AI立法をまだ成立させていない。バイデン政権の2023年AI行政命令は安全性、プライバシー、公平性に関する政策方向を示したが、行政命令は議会立法の拘束力を欠く。実務的には、米国のAI規制は主に2つのメカニズムを通じて機能する。第一に既存規制機関の「拡大解釈」——例えばFTC(連邦取引委員会)が消費者保護と不正競争に関する既存の権限をAI領域に拡張する。第二に業界自主規制——大手AI企業による自発的な安全性コミットメントとベストプラクティスガイドライン。[10]

米国の道の強みは柔軟性にある——事前に厳格なルールを確立するのではなく、実際の問題が出現するに応じて段階的に対応し、「時期尚早な規制」のイノベーション阻害効果を回避する。しかしその弱みは断片化にある——異なる連邦機関や個別の州が同じAI問題に対して異なる、あるいは矛盾する立場を採用し得るため、企業のコンプライアンスの不確実性が増大する。カリフォルニア、コロラド、イリノイなどの州はすでにAI規制を独自に制定または制定中であり、「パッチワーク」的な規制状況を生み出している。

中国の道:「分散立法+国家統治」。AI規制における中国の立法ペースは目覚ましい。2021年の個人情報保護法(PIPL)から、2022年のインターネット情報サービスにおけるディープ合成管理規定(通称「ディープフェイク法」)、2023年の生成的人工知能サービス暫定管理弁法まで、中国はわずか3年間で特定のAIアプリケーションを対象とする複数の規制を制定した。EUの「単一の包括的立法」アプローチとは異なり、中国は「分散立法」戦略を採用した——異なるAIアプリケーションシナリオに対して専門的な行政措置を策定する。

中国の道の特徴的な点は規制と産業政策の緊密な統合だ。一方で中国は特定のAIアプリケーションに厳しい制限を課している——例えば生成AIのアウトプットが「社会主義の核心的価値」と合致することを要求し、ディープフェイク技術にラベリング義務を課す。他方で中国はAIを国家戦略的優先事項として位置づけている——「新世代人工知能発展規画」(2017年)は2030年までにグローバルAIイノベーションセンターとなる目標を設定した。この「促進の中の規制、規制の中の促進」戦略はMilanovic教授との対話で議論した「政治的資本主義」の規制ロジックを反映している——国家がより広い国家戦略目標に奉仕するために促進と制限の間を柔軟に切り替える。[11]

3つの道の比較は重要な洞察を明らかにする。AI規制に「最善のモデル」は存在しない——各道はそれぞれの法制度、政治体制、経済発展段階の産物だ。しかしどの道を取るにせよ、すべての国が同じ核心的課題に直面する。「AIイノベーションの促進」と「AIリスクの軽減」の間の動的均衡をいかに達成するかである。

五、先見的提言:「適応的AI法枠組み」に向けて

法学研究の訓練と技術政策の実践の双方の経験に基づき、AI法枠組みの将来の発展のために以下の5つの提言を行う。

第一に、「技術中立・リスク志向」の規制原則を確立する。AI技術の進化速度は、特定の技術を対象とするあらゆる立法が短期間で陳腐化する可能性を意味する。より効果的なアプローチは「技術中立」的な規制原則を策定すること——「生成AI」や「深層学習」に対する具体的なルールではなく、「高リスクの自動化された意思決定」や「基本的権利に影響を与え得るアルゴリズムの応用」に対するルールを作ることだ。こうすれば、新たなAI技術(量子機械学習など)が出現した場合でも、既存の法枠組みは根本的改正なしに適用できる。EU AI法はこの方向で重要な試みを行った——その規制対象は特定の技術手法ではなく「AIシステム」である。[12]

第二に、AIアウトプットの「共創」著作権枠組みを確立する。各法域が新たな著作権カテゴリー——「AI支援著作物」——を設けることを推奨する。これは人間ユーザーとAIシステムの間の「共創」関係を認めるものだ。この枠組みの下で、著作権の付与は人間の創造的貢献の程度に依存する——貢献が大きいほど著作権保護が強くなり、貢献が小さい場合(単純なプロンプトの入力のみなど)は著作権保護が弱いか、まったくない。同時に義務的な「AI生成ラベリング」制度を確立し、AI生成コンテンツを含むすべての著作物に明確な表示を要求し、公衆の知る権利を保障すべきだ。

第三に、「事前監査+事後責任追及」の二軌制責任メカニズムを確立する。高リスクAIアプリケーションについて、義務的な「アルゴリズム影響評価」(AIA)制度の導入を提唱する——AIシステムの導入前に、バイアステスト、公平性分析、安全性検証を含む体系的なリスク評価を実施しなければならない。評価結果は規制当局に届け出、必要に応じて影響を受ける公衆に開示すべきだ。同時に「事後責任追及」メカニズムを確立する——導入者が事前監査を完了しその勧告に従ったことを証明できるかどうかが、責任判定の重要な要素となる。

第四に、国際的なAIガバナンスの最小限のコンセンサスを推進する。AIの越境的性質は、純粋に国内の規制では本質的に不十分であることを意味する。EUで開発され、米国で訓練され、グローバルに展開されるAIシステム——どの国の法が適用されるのか?異なる法域の要求が矛盾する場合(例えばEUが高い透明性を求め、中国がコンテンツ審査を要求する場合)、企業はどう対応すべきか?国際社会はAIガバナンスの「最小限のコンセンサス」を確立する必要がある——統一的なグローバル法(短期的には実現不可能)ではなく、安全性、透明性、非差別、人間の監視といった核心原則をカバーする、すべての国にとって受容可能な最低基準のセットだ。OECDのAI原則(2019年)と広島AIプロセス(2023年)はこの方向における重要なステップである。

第五に、「法的リテラシー」をAI教育と開発実践に統合する。Meta IntelligenceのAI開発チームを率いる中で、すべての技術的判断が法的・倫理的次元を持つことを一貫して強調している。どの訓練データを使用するかの選択は著作権とプライバシーの判断であり、どの損失関数を使用するかの選択は公平性と差別の判断であり、どの展開方法を使用するかの選択は責任と安全性の判断だ。AI開発者が法律家になる必要はないが、基本的な法的認識——自らの技術的選択が生み得る法的帰結への理解——は必要だ。同様に、法律専門家もAIの基本原則を理解する必要がある——さもなければ理解していない技術を効果的に規制することはできない。

振り返ると、AI時代の法的課題は単なる「技術的問題の法律化」ではなく、「法そのものの現代化」である。名古屋大学で法学博士号を取得する過程で、金融規制の法的アーキテクチャを研究した——比較的安定した分野であった。今日、AIは前例のない速度で法の対象、手段、目的を再構築している。この変革に直面して、法制度に必要なのは防衛的な「パッチ当て」ではなく、主体的な「再構築」——創作、責任、公平性、ガバナンスの基本概念を再考し、人間と機械が共存する新たな時代に適応することだ。これが我々の世代の法学研究者と政策立案者の核心的使命である。

参考文献

  1. Pasquale, F. (2015). The Black Box Society: The Secret Algorithms That Control Money and Information. Harvard University Press.
  2. Scherer, M. U. (2016). Regulating Artificial Intelligence Systems: Risks, Challenges, Competencies, and Strategies. Harvard Journal of Law & Technology, 29(2), 353–400.
  3. Calo, R. (2017). Artificial Intelligence Policy: A Primer and Roadmap. UC Davis Law Review, 51(2), 399–435. ucdavis.edu
  4. U.S. Copyright Office. (2023). Copyright Registration Guidance: Works Containing Material Generated by Artificial Intelligence. Federal Register, 88 FR 16190. copyright.gov
  5. Samuelson, P. (2023). Generative AI Meets Copyright. Science, 381(6654), 158–161. doi.org
  6. Grimmelmann, J. (2016). There's No Such Thing as a Computer-Authored Work — And It's a Good Thing, Too. Columbia Journal of Law & the Arts, 39(3), 403–416.
  7. European Commission. (2022). Proposal for a Directive on Adapting Non-Contractual Civil Liability Rules to Artificial Intelligence (AI Liability Directive). COM(2022) 496 final.
  8. European Parliament. (2024). Regulation (EU) 2024/1689 Laying Down Harmonised Rules on Artificial Intelligence (AI Act). Official Journal of the European Union.
  9. Veale, M. & Borgesius, F. Z. (2021). Demystifying the Draft EU Artificial Intelligence Act. Computer Law Review International, 22(4), 97–112. doi.org
  10. The White House. (2023). Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence. whitehouse.gov
  11. Roberts, H. et al. (2021). The Chinese Approach to Artificial Intelligence: An Analysis of Policy, Ethics, and Regulation. AI & Society, 36, 59–77. doi.org
  12. OECD. (2019). Recommendation of the Council on Artificial Intelligence. OECD/LEGAL/0449. oecd.ai
インサイト一覧に戻る