2025年1月、Nature Medicineに掲載された研究がグローバルな医療界に衝撃を与えた。Google Healthと多国籍医療センターが共同開発したAIシステムAMIE(Articulate Medical Intelligence Explorer)が、模擬臨床会話において、診断精度と情報収集能力において初めて専門医の水準を包括的に上回った。[1] これは医療AIにおける最初のマイルストーンではなかったが、重大な転換点を象徴していた――AIはもはや医師の画像読影を支援する単なるツールではなく、医療意思決定の核心に参入しつつある。すなわち、患者面談、鑑別診断、治療推奨である。しかし技術的ブレークスルーのペースはガバナンスフレームワークの構築をはるかに上回っている。AIシステムの推奨診断が医師の専門的判断と相反する場合、どちらの評価が優先されるべきか。アルゴリズムが訓練データのバイアスにより特定の集団の疾病リスクを体系的に過小評価する場合、誰が責任を負うべきか。医療AIのブラックボックス的性質により患者がなぜ特定の治療を受けたかを理解できない場合、インフォームドコンセントの法的基盤は維持できるのか。これらは遠い仮説ではなく、世界中の病院、法廷、規制当局で現に展開されている問題である。ケンブリッジ大学でのテクノロジーガバナンス研究の経験から、現在のMeta Intelligenceでの企業向けAIシステム展開に至るまで、筆者は医療AIのガバナンスは技術が成熟するまで待つことはできない――ガバナンスフレームワークは技術と並行して進化し、さらには技術の発展方向を導かなければならないことを深く認識するに至った。

I. 医療AIの現状と突破:画像解析から創薬まで

医療AIガバナンスの複雑さを理解するには、まず医療におけるAI応用がすでにほとんどの人の想像をはるかに超えていることを認識しなければならない。

診断画像の革命。医療画像は医療AIの最も成熟した応用分野である。2025年末時点で、米国FDAは950件以上のAI/ML搭載医療機器を承認しており、その約70%が医療画像関連である。[2] 放射線科では、AIシステムはマンモグラフィーにおいて個々の放射線科医を超える感度と特異度で早期乳癌を検出できるようになっている。[3] 眼科では、Google DeepMindとMoorfields Eye Hospitalが共同開発したAIシステムが網膜OCTスキャンから50以上の眼科疾患をトップ眼科専門医に匹敵する精度で検出できる。[4]

創薬の加速。AIは創薬のパラダイムを根本的に変革しつつある。従来の創薬パイプラインは平均10〜15年、20億ドル以上のコスト、10%未満の成功率であった。AIは標的同定、分子設計、臨床試験設計など複数の段階でブレークスルーをもたらしている。[6] 2023年には、Insilico MedicineがAIを用いてゼロから発見・設計した抗線維化薬INS018_055が第II相臨床試験に入った――標的発見から臨床試験までわずか約30か月であり、従来の創薬タイムラインを覆した。[7]

精密医療の深化。AIとゲノミクスの融合は、医療を「一つのサイズですべてに合う」アプローチから「オーダーメイド」の治療へと推進している。マルチオミクスデータ統合により、AIシステムは個々の患者に対する精細な疾患モデルを構築し、特定の治療への反応を予測できる。[8]

II. グローバル規制枠組みの比較:FDA、EMA、TFDA

医療AIの急速な進歩は、従来の医療機器規制枠組みに根本的な課題を突きつけている。従来の医療機器は市場認可時に固定された特性と機能を持つ。しかしAI医療機器、特に機械学習ベースのSoftware as a Medical Device(SaMD)は根本的に異なる特性を持つ――継続的に学習し進化できるのだ。[10]

FDAの適応型規制。FDAはAI医療機器規制でグローバルにリードしている。2021年に公表されたAI/MLベースSaMDアクションプランは、最も革新的な事前変更管理計画(PCCP)を含む5つのコア戦略を提案した。[11] PCCPはAI医療機器メーカーが市場認可申請と併せて「事前変更計画」を提出することを可能にする。これは「管理された柔軟性」の規制哲学を体現している――事前に確立された安全性の境界内でAIシステムに継続的改善の余地を認める。[12]

EUのMDR/IVDRによるライフサイクル全体の規制。EUの医療機器規制枠組み――MDR(2017/745)とIVDR(2017/746)――はAI医療機器に対してより厳格な姿勢をとっている。[13] さらにEU AI Actは医療AIを「高リスクAIシステム」に分類し、人間の監視、透明性、データガバナンス、リスク管理を含む追加のコンプライアンス要件を上乗せしている。[15]

台湾TFDAの進化する枠組み。台湾食品薬品管理署(TFDA)のAI医療機器規制は急速に進化している。TFDAはIMDRF SaMDリスク分類枠組みを参照し、2024年にAI/ML技術を使用した医療機器ソフトウェア審査ガイドラインを公表した。[17] しかし、適応型アルゴリズムの規制パスウェイやローカライズされた臨床バリデーション要件など、いくつかの重要分野での強化が必要である。

III. 臨床意思決定支援システムの法的地位と責任帰属

法的責任の観点から最も重要な区別は、AIが「情報を提供する」のか「意思決定を推奨する」のかである。この区別はAIシステムの規制分類と責任帰属を直接決定する。

CDSSのスペクトラム。米国FDAは21世紀治療法において重要な区別の枠組みを確立した。[18] しかしこの境界は実際には極めて曖昧である。「参考用」とラベルされたAI診断システムが、実際の臨床環境で極めて高い精度を達成した場合、使用する医師には自然と「自動化への信頼」が生まれる。[19]

責任帰属の多層構造。AI医療誤診の責任チェーンは複数の当事者に及ぶ。AI開発者はアルゴリズムの欠陥に対して製造物責任を負う可能性がある。医療機関はAIシステムの適合性評価や適切な人的監視メカニズムの確立の不備に対して組織責任を負う可能性がある。個々の医師はAI推奨の合理的使用の不備に対して専門職過失責任を負う可能性がある。[20]

IV. アルゴリズムバイアスと医療の公平性:データに隠された不平等

医療AIの最も深いガバナンス課題は技術的問題ではなく、公平性の問題である。

オバーメイヤーの警告。2019年にObermeyer et al.がScience誌に発表した画期的研究は、米国で広く使用されている医療リスク予測アルゴリズムにおける体系的な人種バイアスを明らかにした。[22] このアルゴリズムは約2億人のアメリカ人の医療資源配分に影響を与えていた。アルゴリズムが「過去の医療支出」を「健康ニーズ」の代理指標として使用したため、社会経済的に不利な立場にあるグループのニーズが体系的に過小評価された。

バイアスの複数の源泉。医療AIにおけるバイアスは代理変数の選択だけでなく、訓練データの代表性バイアスラベルバイアス展開環境バイアスなど複数の源泉に由来する。[23][24]

V. 医師患者関係の再構築:専門的判断と統計的予測

医師の役割の変容。Eric TopolはベストセラーDeep Medicineで、AIの最大の価値は医師の専門的判断を代替することではなく、退屈なデータ処理から解放して医療の人間的本質に回帰させることにあるという、一見逆説的な主張を展開した。[28] しかし、この楽観的ビジョンと臨床の現実の間には大きなギャップがある。

「自動化への信頼」のリスク。認知科学の研究によれば、人間は高信頼性の自動化システムと対話する際、「自動化バイアス」を段階的に発展させる。[29] ある研究では、AIが誤った推奨を提供した場合、一部の医師の解釈精度はAIなしの場合よりも低下した。[30]

VI. データガバナンスとプライバシー保護:医療AIのデータ倫理

グローバルなプライバシー枠組みの緊張。EUのGDPRは医療データの処理に厳格な制限を課している。[33] 台湾は2022年の憲法裁判所第13号判決が健康保険データの二次利用に重要な制限を課し、医療AI開発に深い影響を及ぼしている。[35]

新興の技術的解決策。連合学習、差分プライバシー、合成データといった新興技術がヘルスケアAIのデータガバナンスに新たな可能性を提供している。[36][37]

VII. 台湾のスマートヘルスケア:機会と課題

台湾はAI医療の開発において、国民健康保険システム、一流の医療センター、活気あるICT産業といったユニークな構造的優位性を持っている。[38] しかしこれらの優位性をグローバルなリーダーシップに転換するには、規制枠組みの近代化、学際的人材の育成、ローカライズされたバリデーションの制度化、医療データエコシステムの構築など、いくつかの重要課題を克服する必要がある。[39] グローバル保健法の発展経験が示すように、データの開放とプライバシー保護はゼロサムゲームではない――鍵は制度設計にある。

VIII. 結論:患者中心の医療AIガバナンスフレームワーク

医療AIのガバナンスジレンマは本質的に、複数のステークホルダーの利益のバランスを取る制度設計の課題である。安全性、有効性、公平性、透明性、プライバシー、アクセシビリティの六つの価値次元に同時に対処しなければならない。[40]

上記の分析に基づき、患者中心の医療AIガバナンスフレームワークとして五つのコア原則を提案する。第一に、リスク比例原則。規制の厳格さはAIシステムの臨床リスクに比例すべきである。第二に、継続的バリデーション原則。AI医療機器の規制は「一度の審査で生涯有効」モデルに従うべきではない。第三に、有意味な人間の監視原則。医師の監視は「有意味」でなければならない。[41] 第四に、アルゴリズム公平性原則。医療AIシステムは体系的なバイアス監査を受けるべきである。第五に、データスチュワードシップ原則。医療データの利用は独立したガバナンス機関の監督下で行われるべきである。

人口構造の変化――特にグローバルな高齢化のトレンド――は、医療AIがもはや任意の贅沢品ではなく、医療システムを維持するための必要なツールであることを意味する。しかし技術の必要性はガバナンスの軽視の言い訳にはならない。AIがすべての人の健康と生命に深く影響するからこそ、厳格で公平で患者中心のガバナンスフレームワークが一層必要なのだ。

参考文献

  1. Tu, T. et al. (2024). Towards Conversational Diagnostic AI. Nature Medicine. doi.org
  2. U.S. FDA. (2025). Artificial Intelligence and Machine Learning (AI/ML)-Enabled Medical Devices. fda.gov
  3. McKinney, S. M. et al. (2020). International evaluation of an AI system for breast cancer screening. Nature, 577, 89–94. doi.org
  4. De Fauw, J. et al. (2018). Clinically applicable deep learning for diagnosis and referral in retinal disease. Nature Medicine, 24, 1342–1350. doi.org
  5. Bera, K. et al. (2019). Artificial intelligence in digital pathology. Nature Reviews Clinical Oncology, 16, 703–715. doi.org
  6. Vamathevan, J. et al. (2019). Applications of machine learning in drug discovery and development. Nature Reviews Drug Discovery, 18, 463–477. doi.org
  7. Ren, F. et al. (2024). AlphaFold accelerates artificial intelligence powered drug discovery. Nature Reviews Drug Discovery, 23, 1–2. doi.org
  8. Topol, E. J. (2019). High-performance medicine. Nature Medicine, 25, 44–56. doi.org
  9. Gerke, S. et al. (2020). The need for a system view to regulate AI/ML-based SaMD. NPJ Digital Medicine, 3, 53. doi.org
  10. U.S. FDA. (2021). AI/ML-Based SaMD Action Plan. fda.gov
  11. U.S. FDA. (2023). PCCP Guidance for AI/ML-Enabled Device Software Functions. fda.gov
  12. European Parliament and Council. (2017). Regulation (EU) 2017/745 on Medical Devices (MDR). eur-lex.europa.eu
  13. European Parliament and Council. (2024). Regulation (EU) 2024/1689 (AI Act). eur-lex.europa.eu
  14. 台湾食品薬品管理署. (2024). AI/ML技術を使用した医療機器ソフトウェア審査ガイドライン. fda.gov.tw
  15. U.S. Congress. (2016). 21st Century Cures Act. Public Law 114-255, Section 3060. congress.gov
  16. Parasuraman, R. & Manzey, D. H. (2010). Complacency and Bias in Human Use of Automation. Human Factors, 52(3), 381–410. doi.org
  17. Maliha, G. et al. (2021). AI and Liability in Medicine. The Milbank Quarterly, 99(3), 629–647. doi.org
  18. Obermeyer, Z. et al. (2019). Dissecting racial bias in an algorithm. Science, 366(6464), 447–453. doi.org
  19. Adamson, A. S. & Smith, A. (2018). ML and Health Care Disparities in Dermatology. JAMA Dermatology, 154(11), 1247–1248. doi.org
  20. Rajkomar, A. et al. (2018). Ensuring Fairness in ML to Advance Health Equity. Annals of Internal Medicine, 169(12), 866–872. doi.org
  21. Topol, E. (2019). Deep Medicine. Basic Books.
  22. Goddard, K. et al. (2012). Automation bias: a systematic review. JAMIA, 19(1), 121–127. doi.org
  23. Gaube, S. et al. (2021). Do as AI say. NPJ Digital Medicine, 4, 31. doi.org
  24. European Parliament and Council. (2016). Regulation (EU) 2016/679 — GDPR. eur-lex.europa.eu
  25. 司法院. (2022). 憲法裁判所第13号判決. cons.judicial.gov.tw
  26. Rieke, N. et al. (2020). The future of digital health with federated learning. NPJ Digital Medicine, 3, 119. doi.org
  27. Chen, R. J. et al. (2021). Synthetic data in ML for medicine. Nature Medicine, 27, 1664–1669. doi.org
  28. Stanford HAI. (2024). AI Index Report 2024. aiindex.stanford.edu
  29. 行政院. (2024). 台湾AI行動計画2.0. 行政院
  30. BMJ. (2020). AI in Health Care: Accountability and Safety. BMJ, 368, l6927. doi.org
  31. MIT Technology Review. (2024). The year AI truly entered the clinic. technologyreview.com
インサイトに戻る