2026年2月、OpenClawと呼ばれるオープンソースプロジェクトがわずか84日間で200,000 GitHub Starsを突破し、React、Vue、Linuxの同等のマイルストーンを上回り、ソフトウェア史上最も急速に成長したオープンソースプロジェクトとなった。[1]その前身Clawdbotは、オーストリアの開発者Peter Steinbergerが一晩で構築したもので、当初はチャットアプリケーションをAIモデルに接続する単純なブリッジにすぎなかった。しかし3ヶ月以内に、WhatsApp、Telegram、Signalなどのメッセージングプラットフォームを通じてユーザーのコンピュータを制御できる本格的なAIエージェントに進化した——ファイルの読み書き、コードの実行、ウェブ閲覧、カレンダー管理、さらにはスマートホームデバイスの制御まで。支持者はこれを「手を持ったAI」と呼んだ。[2]しかし、この手は前例のないガバナンス上の課題ももたらした:73件のセキュリティ脆弱性、公開インターネットに露出した135,000以上のインスタンス、12%の悪意あるスキルエコシステム、MetaとMicrosoftによる緊急禁止措置。ケンブリッジ大学でのテクノロジーガバナンス研究、世界銀行と国連向けの越境規制フレームワーク設計の主導、そして現在Meta IntelligenceでのAIソフトウェア開発の指揮という私の経験の中で、これほど短期間に技術革新、セキュリティ危機、ガバナンス論争のパーフェクトストームを引き起こしたオープンソースプロジェクトを見たことがない。OpenClawは単なるソフトウェア製品ではない——エージェンティックAI時代の序曲であり、グローバルAIガバナンス体制へのストレステストである。

I. OpenClaw現象:84日間でいかにしてオープンソースプロジェクトがAI産業を変革したか

OpenClawの爆発を理解するには、まずテクノロジー史における位置づけを把握する必要がある。過去2年間で、大規模言語モデル(LLM)の能力は「会話」から「行動」へと飛躍した。Gartnerは2026年末までにエンタープライズアプリケーションの40%がAIエージェント機能を組み込むと予測している。[3]OpenClawの核心的イノベーションはAIモデルそのものではなく、エンジニアリング問題の解決にある:開発者ではなくスマートフォンを持つ誰もが、日常使用するメッセージングアプリを通じてシステム権限を持つAIエージェントを制御できるようにすること。[4]

OpenClawの成長速度は驚異的であった。1日あたり25,310の新規GitHub Stars(2026年1月26日)、35,400以上のフォーク、11,456のコミット、100人以上のコントリビューター。[1]創設者Steinbergerは2026年2月14日にOpenAIに参加し次世代パーソナルエージェントの開発を主導すると発表し、OpenClawは独立したオープンソース財団に移管された。[5]

II. 73件の脆弱性と12%の悪意あるスキル:オープンソースAIエージェントの構造的セキュリティジレンマ

2026年2月時点で、OpenClawは73件のセキュリティアドバイザリを蓄積しており、CVSSスコア9.4の重大な脆弱性CVE-2026-25253を含む——攻撃者が単一の悪意あるリンクを通じてリモートコード実行を達成し、ユーザーのAIエージェントを完全に乗っ取ることを可能にした。[6]SecurityScorecard STRIKEチームの分析によると、2026年2月9日時点で135,000以上のOpenClawインスタンスが公開インターネットに直接露出していた。[7]

より深刻なセキュリティ危機はスキルエコシステムの汚染から生じている。Ciscoセキュリティ研究チームは、ClawHubスキルマーケットプレイスの2,857スキルのうち341(約12%)が悪意あるものと確認されたことを発見した。[8]OpenClaw自身の技術ドキュメントは「完全に安全な構成は存在しない」と認めている。[9]

世界銀行と国連のために実施したフィンテック規制研究において、私は繰り返し現れるパターンを観察した:技術革新の速度がガバナンスフレームワークの構築をはるかに上回るとき、その間の「ガバナンスの空白」はシステミックリスクの温床となりやすい。OpenClawはまさにこのガバナンスの空白の中心に位置している。

III. シンガポールからブリュッセルまで:グローバルなエージェンティックAIガバナンスの三つの道

シンガポールの道は「原則ベースのソフトロー・フレームワーク」である。2026年1月22日、シンガポール情報通信メディア開発庁(IMDA)が世界経済フォーラムで世界初のエージェンティックAI向けモデルAIガバナンスフレームワークを発表した。[10]フレームワークは4つの柱に焦点を当てている:展開前のリスク評価と行動空間の制限、人間の説明責任、技術的制御、エンドユーザーの責任。[11]

EUの道は「ルールベースのハードロー・フレームワーク」である。EU AI法は2026年8月2日に完全施行される。[12]AIエージェントにとってのEU AI法の核心的課題は、そのリスクベースアプローチの適用可能性にある。AIエージェントのリスクレベルは動的であり、同一のエージェントが異なるタスクを実行する際に複数のリスクティアにまたがる可能性がある。さらに注目すべきは、EU製造物責任指令の改正がAIソフトウェアを「製品」の定義に明確に含めたことだ。

米国の道は「規制緩和型の市場自主規制」である。2026年2月20日、ホワイトハウスの顧問はインドでのサミットで、米国はグローバルなAIガバナンスフレームワークを「完全に拒否する」と明言した。しかしこの規制緩和の姿勢はOpenClawが露呈したセキュリティリスクと鋭く矛盾している。

これら三つの道の分岐は根本的なガバナンスジレンマを反映している:エージェンティックAIのリスクはグローバルだが、規制権限はローカルである。この「グローバルなリスクとローカルなガバナンス」の構造的不一致は、私が過去に研究してきた越境データ流通ガバナンスのジレンマと高度な構造的同型性を持つ。

IV. 企業AIエージェントガバナンス:シャドーAIから制度化された展開へ

OpenClawの企業ガバナンスへの影響はまず「シャドーAI」として現れた。American Bankerは、銀行業界で従業員がOpenClawを業務用コンピュータにインストールしてビジネスメールや文書を処理するケースがすでに発生していると報告した。[13]MetaはOpenClawの即時削除を指示し、Microsoftも同様の社内警告を発した。[14]

しかし禁止は解決策ではない。AI時代のコーポレートガバナンスに関する私の研究とシンガポールのフレームワークからの洞察を踏まえ、企業は4つの次元でガバナンスシステムを構築することを推奨する:

  1. 受入評価。AIエージェントツールの受入審査メカニズムを確立し、セキュリティアーキテクチャ、データ取扱慣行、権限要件、コンプライアンス状況を評価する。
  2. 権限ガバナンス。最小権限の原則に従い、AIエージェントの精密な操作権限を設定する。
  3. 行動監査。AIエージェントの行動に関する包括的なログ記録とリアルタイム監視メカニズムを確立する。
  4. インシデント対応。AIエージェントのセキュリティインシデントを企業の既存サイバーセキュリティインシデント対応プロセス(CSIRT)に統合する。

この4次元ガバナンスフレームワークは本質的に、企業デジタルレジリエンスの概念を「外部攻撃への防御」から「内部エージェントのガバナンス」へと拡張するものである。

V. エージェンティックAIの法的責任:AIの行動に誰が責任を負うのか?

現行の法的フレームワークの下では、企業がAIエージェントの行動に対して負う責任は、従業員の行為に対する使用者責任に類似している。米国法律事務所Squire Patton Boggsの分析は5つの主要なAIエージェントの法的リスクカテゴリを特定している。[15]

しかしオープンソースAIエージェントの責任帰属には三つの固有の法的課題がある:第一に、貢献者責任の拡散。OpenClawは100人以上のコントリビューターを有し、そのほとんどが偽名を使用している。第二に、因果関係の立証の困難。AIエージェントの意思決定プロセスはLLMの確率的推論を含み、因果連鎖はしばしば不透明で完全には再現不可能である。第三に、越境管轄権の複雑性。台湾に展開されたOpenClawインスタンスが米国企業のLLMを使用し、EUの個人データを含む操作を実行し、国籍不明の開発者がClawHubにアップロードしたスキルをインストールしている場合、どの国の法律が適用されるのか?

より広いレベルでは、エージェンティックAIの法的責任の問題は法制度に根本的な再考を迫っている:伝統的な法は行為者として「自然人」と「法人」を区別するが、AIエージェントは自然人でも法人でもなく、しかし自律的な行動能力を持つ新たな存在である。専門家は2027年までに規制の焦点が「モデルの透明性」から「リアルタイムのエージェント監査」へとシフトすると予測している。[12]

参考文献

  1. OpenClaw.report. (2026). OpenClaw surpasses 200K GitHub Stars in 84 days. openclaw.report
  2. CNBC. (2026). From Clawdbot to Moltbot to OpenClaw. cnbc.com
  3. EWSolutions. (2026). Agentic AI Governance: A Strategic Framework for 2026. ewsolutions.com
  4. innFactory AI. (2026). OpenClaw Architecture Explained. innfactory.ai
  5. TechCrunch. (2026). OpenClaw creator Peter Steinberger joins OpenAI. techcrunch.com
  6. The Hacker News. (2026). OpenClaw Bug Enables One-Click Remote Code Execution. thehackernews.com
  7. Bitsight. (2026). OpenClaw AI Security Risks: Exposed Instances. bitsight.com
  8. Cisco Blogs. (2026). Personal AI Agents Like OpenClaw Are a Security Nightmare. blogs.cisco.com
  9. CrowdStrike. (2026). What Security Teams Need to Know About OpenClaw AI Super Agent. crowdstrike.com
  10. IMDA Singapore. (2026). New Model AI Governance Framework for Agentic AI. imda.gov.sg
  11. Baker McKenzie. (2026). Singapore Governance Framework for Agentic AI Launched. bakermckenzie.com
  12. Legal Nodes. (2026). EU AI Act 2026 Updates. legalnodes.com
  13. American Banker. (2026). OpenClaw AI creates shadow IT risks for banks. americanbanker.com
  14. AI CERTs. (2026). Meta's OpenClaw Ban Spotlights AI Security Imperatives. aicerts.ai
  15. Squire Patton Boggs. (2026). The Agentic AI Revolution: Managing Legal Risks. squirepattonboggs.com
インサイト一覧に戻る