2025年の人工知能基本法の可決は、台湾がAIガバナンスの制度構築段階に正式に参入したことを意味する。これは肯定すべきマイルストーンだが、可決は出発点であり目的地ではない。基本法は本質的に原則ベースのフレームワークである。その七つの指導原則は透明性、説明責任、人間中心主義といったコアバリューを確立しているが、付随する下位規則、省庁間調整メカニズム、執行能力なくしては、どれほど洗練された立法文言も宣言的文書以上のものにはならない。国際的に見れば、EU AI Actは立法から各条項の施行日まで24か月から36か月の移行期間を設計し、専門の欧州AIオフィスを備えている。米国のAIガバナンスは大統領令と連邦機関の説明責任ガイドラインの並行アプローチで進展している。限られた行政資源の中で、台湾がいかにして基本法の精神を実行可能な制度的枠組みに変換できるかが、政策エリートが今まさに直面しなければならない中核的課題なのである。

I. 立法設計のロジック:七つの原則の構造的意味

人工知能基本法が定める七つの指導原則――人間中心主義、透明性と説明可能性、プライバシーとデータ保護、安全性と信頼性、公平性と非差別、持続可能な発展、イノベーション促進――は無作為に並べられたものではなく、内的に一貫したガバナンス哲学を反映している。立法院の審議過程を精読すると、立法者が「イノベーション促進」と「リスク管理」のバランスを意図的に追求したことがわかる。七原則のうち最初の六つはすべて制約的原則であり、最後の一つだけが促進的原則である。この順序は暗に「責任先行、発展後追い」という立法意図を伝えている。[1]

しかし、原則の配列は実施上の課題を自動的に解決しない。「透明性と説明可能性」原則に含まれるアルゴリズムの説明可能性要件は、ディープラーニングモデルが普及した今日において未解決の技術的・法的な二重の課題を構成している。「公平性と非差別」原則はAIシステムの出力が特定のグループに対して体系的に不利な影響を与えてはならないことを要求するが、「不公平」の法的定義とは何か。誰がそれを判断するのか。どのようなテスト方法を用いるのか。これらの問いは基本法には存在せず、後続の下位規則で対処されなければならない。基本法の価値は、台湾のAIガバナンスの「憲法的慣習」を確立すること――将来の立法と行政解釈のための解釈枠組みを提供すること――にこそあり、直接的に法的強制力を持つ拘束的規範を生み出すことにあるのではない。[2]

II. 省庁間調整の制度的ジレンマ

AIガバナンスは本質的にクロスドメインであるが、台湾の行政システムは縦割り構造である――この構造的矛盾がAI基本法の実施における最大の障害である。デジタル発展部は全般的なデジタル政策の調整を担い、国家科学技術委員会は研究開発資源を管理し、衛生福利部は医療AIの安全基準に関心を持ち、金融監督管理委員会は金融AIのリスクを監督し、労動部はAIによる雇用への影響に直面し、教育部はAI時代の人材育成戦略を検討している。七つの省庁、七つの優先事項、七つの官僚文化。[3]

より深い問題は「主管機関」の曖昧さにある。基本法はAIガバナンスの主管機関を明示的に指定しておらず、「中央主管機関」と汎称し、行政院にさらなる指定を委ねている。この設計は柔軟性を保持しているが、省庁間の責任回避の種も蒔いている。日本の経験を参照すると、日本は2023年に内閣府内に「AI戦略会議」を設置し、内閣総理大臣直轄のもと、省庁横断のAI関連政策調整の法的権限を内閣府に明確に付与した、全省庁を横断する最高レベルの調整プラットフォームとした。同様のトップレベルの調整アーキテクチャなくしては、台湾のAIガバナンスは「複数の運転手がそれぞれ別の方向に進む」状況に陥るリスクがある。

III. 国際比較:EU、米国、シンガポールのガバナンスモデルの示唆

三つの国際モデルは、それぞれ台湾が検討に値する教訓を提供している。EU AI Actは「リスク階層型規制」のフレームワークを採用し、AIアプリケーションを四つのリスクレベルに分類している。許容できないリスク(全面禁止)、高リスク(厳格な規制)、限定的リスク(透明性義務)、最小リスク(自主的行動規範)。このフレームワークの利点は規制資源の集中にある――生体認証、重要インフラ、与信審査などの高リスク分野は最も厳格な市場投入前コンプライアンス審査を受ける一方、低リスクアプリケーションにはほとんど規制がかからず、イノベーションの余地が保たれる。欠点は、分類境界の決定自体が極めて高い技術的・法的専門性を要し、中小企業にとってのコンプライアンスコストが市場参入障壁を生む可能性があることだ。[4]

バイデン政権の2023年「安全でセキュアで信頼できるAIに関する大統領令」は著しく異なるアプローチをとった。立法ではなく大統領令を用いて各連邦機関に独自のAI使用ガイドラインの策定を求め、同時に商務省(NIST)にAIリスク管理フレームワーク(AI RMF)の策定を委ねた。この「分散型」モデルの利点はスピードと柔軟性であり、欠点は統一的な法的拘束力と監督メカニズムの欠如である。シンガポールは実用主義的な「ソフトロー」アプローチをとった――Model AI Governance Frameworkを企業が遵守する自主的ガイドラインとし、説明責任と説明可能性を強調し、イノベーションを促進するためのレギュラトリーサンドボックスメカニズムで補完している。[5]

台湾にとっての最適解は、「EUの枠組み+米国の柔軟性+シンガポールの実用主義」を組み合わせたハイブリッドモデルかもしれない。リスク階層を基本的なアーキテクチャとし、行政ガイドラインを迅速対応ツールとし、レギュラトリーサンドボックスをフロンティア技術の試験場とする。これには立法の知恵だけでなく、行政能力の大幅な強化が必要である。

IV. 省庁横断実施ブループリント:基本法から実行可能な制度への道筋

基本法の精神を実行可能な制度的枠組みに変換するには、立法可決後18か月以内に以下の主要アクションを完了する必要がある。

  1. 省庁横断AIガバナンス委員会の設立――行政院長直轄、デジタル発展部長が執行秘書を兼任し、法的調整権限を持つトップレベルのアーキテクチャを構築し、省庁の縦割りが水平統合を損なうことを防止する。
  2. AIリスク階層化の下位規則の策定――国家科学技術委員会とデジタル発展部の共同策定により、高リスクAIアプリケーションの基準、コンプライアンス要件、所管機関を明確に定義し、EU AI ActのAnnex Iの高リスクユースケースリストを参照して台湾独自のリスクマップを策定する。
  3. アルゴリズム透明性監査メカニズムの構築――政府機関が使用するAI意思決定システム(社会福祉適格性審査、犯罪リスク評価など)に定期的な第三者監査と監査サマリーレポートの公開を要求し、「公共セクターのAI透明性義務が民間セクターに先行する」というガバナンス原則を実践する。
  4. AIガバナンス人材パイプラインの拡充――考試院を通じて公務員職種分類制度を改定し、「AIガバナンス・政策分析」の職種カテゴリーを追加するとともに、国家文官学院にAI規制能力研修プログラムを設置し、各省庁に基礎的な技術審査能力を装備させる。
  5. AIガバナンスの二国間相互承認協定の推進――台湾の半導体・AI産業の強みを交渉材料として活用し、日本、EU、英国などの民主主義パートナーとのAI安全性・信頼性基準の二国間相互承認を追求し、AIガバナンス能力を外交資産に転換する。

参考文献

  1. 立法院. (2025). 人工知能基本法. 立法院公報, 第114巻第1号. ly.gov.tw
  2. Kaminski, M. E. (2019). Binary Governance: Lessons from the GDPR's Approach to Algorithmic Accountability. Southern California Law Review, 92(6), 1529-1616.
  3. 行政院. (2023). 台湾AI行動計画2.0. 国家発展委員会. ndc.gov.tw
  4. European Parliament. (2024). Regulation (EU) 2024/1689 of the European Parliament and of the Council laying down harmonised rules on artificial intelligence (Artificial Intelligence Act). Official Journal of the European Union.
  5. The White House. (2023). Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence. Executive Order 14110.
  6. Personal Data Protection Commission, Singapore. (2023). Model Artificial Intelligence Governance Framework (3rd ed.). pdpc.gov.sg
  7. NIST. (2023). Artificial Intelligence Risk Management Framework (AI RMF 1.0). National Institute of Standards and Technology. nist.gov
  8. Dafoe, A. (2018). AI Governance: A Research Agenda. Future of Humanity Institute, University of Oxford.
インサイトに戻る