毎朝、世界中の何百万もの開発者がVS Codeを開き、GitHub Copilotを起動して一日の仕事を始める。数文字タイプすればAIがコードブロック全体を自動補完し、機能を記述すれば完全な実装を生成する。生産性は確かに向上した——GitHubの主張によればCopilotは開発者のタスク完了速度を55%向上させうるという。[1] しかしこの効率革命の背後で、根本的な問いが覆い隠されている。制御できず、理解できず、離脱すらできないツールに仕事がますます依存するとき、あなたはツールの主人なのか、それともその従者なのか。
I. データ植民地主義:概念の起源と進化
土地からデータへ:植民地的論理の継続
「植民地主義」という言葉は、15世紀以降のヨーロッパ列強によるアメリカ、アフリカ、アジアの征服と略奪を想起させる。従来の植民地主義の核心的論理は、土地を奪い、資源を抽出し、労働力を搾取し、依存関係を確立することだった。植民地化された人々は自らの土地と労働の成果に対する支配を失い、植民地宗主国の経済システムの付属物となった。[2]
2019年、コミュニケーション学者のニック・クルドリーとウリセス・メヒアスが「データ植民地主義」の概念を提唱し、デジタル時代は植民地主義の論理を再演している——ただし略奪されているのはもはや土地ではなくデータだ——と論じた。[3] 彼らは、テック巨大企業がさまざまな「データ関係」を通じて、人間の日常的行動、社会的相互作用、さらには生理的状態を、捕獲・保存・分析・収益化可能なデータ商品に変換していると主張する。この「人間生活の持続的商品化」が新たな植民地的搾取を構成するのだ。
生成AI:データ植民地主義の新段階
生成AIの出現はデータ植民地主義を新たな段階に押し進めた。従来のデータ植民地主義は「監視資本主義」のモードで作動していた。プラットフォームがあなたの行動データを収集し、ターゲット広告に利用するのだ。[4] しかし生成AIは監視以上のことをする——「学習」するのだ。何千年にもわたる人類の蓄積した知識、創造性、職人技を吸収し、モデルパラメータに圧縮し、そしてサブスクリプションサービスとして私たちに売り返す。
このプロセスには根本的な非対称性がある。GPT-4の訓練に使用されたデータには、Wikipedia、GitHubの公開コード、学術論文、ニュース記事、小説、ブログ記事——何百万もの人々が対価なく寄与した人類の集合知の結晶——が含まれている。[5] しかしこれらの寄与者は使用に同意もしておらず、報酬も受け取っていない。さらに皮肉なことに、AIモデルの訓練が完了すると、これらの元の寄与者は自分自身の仕事で訓練されたモデルを「利用」するためにサブスクリプション料金を支払わなければならない。
II. データの現実:誰がAIを使い、誰がAIに使われているのか
開発者のAI依存
まずソフトウェア開発の状況を見てみよう。Stack Overflow 2024年開発者調査によれば、回答者の76%がプログラミングにAIツールを使用しているか使用を計画していると報告した。[6] この数字は2023年に記録された70%から6ポイント上昇している。既にAIツールを使用している開発者の中で、最も一般的に使用されているのは:
- ChatGPT:AIユーザーの82.1%が使用
- GitHub Copilot:45.3%
- Visual Studio IntelliCode:23.7%
- Tabnine:8.6%
GitHubの内部データはさらに衝撃的だ。2024年時点でGitHub Copilotは世界で180万以上の有料ユーザーを持ち、5万以上の企業に採用されている。[7] Copilotを使用している開発者のうち、平均46%のコードがAI生成であり、特定の言語(Javaなど)ではこの割合が60%を超える。[8]
ライターとデザイナーの苦境
ソフトウェア開発は氷山の一角に過ぎない。コンテンツ制作においてもAIの浸透は同様に急速である。2024年の調査によれば、マーケターの85.1%がコンテンツ生成にAIを使用し、73%の企業がコピーライティングに生成AIを使用している。[9] デザイン分野では、Midjourney、DALL-E、Stable Diffusionなどのツールがビジュアル制作プロセスを変革している——多くのデザイナーが、クライアントがアウトプットの加速とコスト削減のためにAIツールの使用を要求し始めていることを公然と認めている。
これらのデータは冷静に考えさせる一つの絵を描いている。知識労働者は——コードを書くにせよ、コピーを書くにせよ、デザインするにせよ——驚くべきスピードでワークフローをAIツールに結びつけている。この結びつきは効率の向上をもたらすが、同時に深い依存関係も生む。
III. コーダーから小作人へ:新たな労働依存の形成
小作制度のエコー
現在の苦境を理解するために「小作」の比喩を借りよう。伝統的な小作制度のもとでは、農民は土地を所有せず、地主から土地を借りて耕作した。彼らは「労働する自由」を持っていた——勤勉に働くか怠けるか、この土地かあの土地かを選ぶことができた——しかしこの自由は制約された自由であった。彼らは土地制度に依存し、それなしでは生きられなかった。収穫は地主と分け合わなければならず、労働の果実は決して完全に自分のものにはなれなかった。[10]
今日の開発者は非常によく似た立場にある。AIモデルを所有していない——それはOpenAI、Google、Anthropicの専有資産だ。AIの訓練に使用されたデータも所有していない——たとえ自分のコードがその一部であっても。AIがどのように機能するかさえ完全には理解していない——ほとんどの開発者にとってAIはブラックボックスであり、信頼はしなければならないが検証はできない神託なのだ。[11]
「クラフト」から「プロンプト」へ:スキルの空洞化
より深い問題は「脱技能化」である。労働社会学者ハリー・ブレイヴァーマンは1974年の古典的著作『労働と独占資本』で、資本主義は複雑な技能を単純で標準化可能なタスクに分解し、熟練労働者への依存を減らし人件費を引き下げる傾向があると論じた。[12] 産業革命時代の職人から今日の知識労働者に至るまで、この過程は一貫した軌跡を描いている。
生成AIはこのプロセスを加速している。開発者がますますCopilotに頼ってコードを書くとき、彼ら自身のプログラミング能力はまだ育まれているのか。デザイナーがますますMidjourneyに頼って画像を生成するとき、彼らの視覚的リテラシーは衰退していないか。研究によればGPSナビゲーションへの過度な依存は人間の空間認知を弱める。[13] AIコーディングツールへの過度な依存が同様に開発者のプログラミングの直感を侵食する可能性はないか。
Hacker Newsでのあるシニア開発者のコメントが核心を突いている。「Copilotを長期間使用した後、特定のライブラリAPIを忘れ始めていることに気づきました。以前は暗記で書いていたものを、今では習慣的にAIの提案を待っています。これは不安です——私のスキルが制御できないシステムにアウトソースされているのです。」[14]
生産性の罠
この批判に反論する者はこう言うだろう。「しかしAIは本当に生産性を向上させている!」確かにそうだ。GitHubの研究によれば、Copilotを使用する開発者はタスクを55%速く完了し、より高い仕事満足度と少ないフラストレーションを報告している。[15] それは良いことではないか。
問題は、「生産性」向上の利益を最終的に誰が享受するかだ。従来の雇用関係では、生産性向上の利益は資本に捕獲される傾向がある——労働者はより速く生産するが、賃金は比例的には増加しない。[16] 新しいAI支援モデルでは、この非対称性はさらに深刻化しうる。開発者はより生産的になるが、それは同じ成果物をより少ない人数で達成できることを意味する——つまりAIの効率配当は解雇圧力に転換する可能性がある。
さらに微妙なのは「隠れたコスト」だ。AIツールの使用には有料サブスクリプション(Copilotは月額19ドルから、ChatGPT Plusは20ドル)が必要であり、[17] AI生成コードには追加のレビューとテスト時間が必要であり、AIが導入するエラーはより検出困難でデバッグしにくい場合がある。これらのコストは「生産性向上」の物語によってしばしば覆い隠される。
IV. 認知のアウトソーシングと主体性の喪失
拡張された心の両刃の剣
1998年、哲学者アンディ・クラークとデイヴィッド・チャルマーズは「拡張された心」仮説を提唱した。認知プロセスは脳内だけでなく、外部のツールや環境にも拡張しうるというものだ。[18] この観点からすれば、ノート、計算機、スマートフォンはすべて私たちの認知システムの拡張である。AIは単にこの拡張の最新形態に過ぎない。
しかし「拡張された心」は、あなたがこれらのツールに対して一定の制御と理解を維持していることを前提とする。計算機を使うとき、それが何をしているかわかっている——あなたが指定した数学的演算を実行するだけだ。しかしGPT-4を使うとき、それが何をしているか本当にわかっているだろうか。なぜこの答えであって別の答えではないのか。その「推論」は信頼できるのか。AI研究者ですらこれらの問いに完全には答えられない。[19]
「ツールを使う」から「ツールに使われる」へ
『疲労社会』においてビョンチョル・ハンは、現代社会の権力作用は「規律」から「達成」へと移行していると論じた。人々はもはや外部からの強制を必要としない——自分自身に要求を課し、自分自身を搾取し、自分自身を最適化するのだ。[20] AIツールはこの「達成社会」の完璧な媒体である——使うことを強制はしないが、使わなければ仲間や市場に遅れをとるため「自発的に」採用する。
この「自発的な依存」は認知も抵抗も特に困難である。搾取されている感覚はない——結局、Copilotの使用は自分で選んだのだから。支配されている感覚もない——結局、いつでもオフにできるのだから。しかし実際には、ワークフロー、思考パターン、さらには職業的アイデンティティがAIツールと深く絡み合っているとき、「使わない」はもはや現実的な選択肢ではないのだ。[21]
創造性の疎外
ライターやデザイナーにとって、問題はさらに深刻だ。コードには少なくとも「正しいか間違いか」の概念がある——動くコードは動くのだ。しかしクリエイティブな仕事はどうか。AIが生成し人間が編集した記事の「著者」は誰なのか。テキストプロンプトからAIが生成した画像の「創作者」は誰なのか。
ヴァルター・ベンヤミンは1935年のエッセイ「複製技術時代の芸術作品」で「アウラ」の概念を導入した。芸術作品の独自の質と権威は、その「今ここ」の存在から、創作者と作品の間の再現不可能な関係から生まれるのだ。[22] 機械的複製(写真、印刷)は既にこのアウラを弱めた。AI生成はそれを完全に溶解させるかもしれない。誰でも一つのプロンプトで「傑作品質」の画像を生産できるとき、「創造」とはいったい何を意味するのか。
V. プラットフォーム封建主義:新たな権力構造
資本主義から封建主義への回帰?
経済学者ヤニス・ヴァルファキスは『テクノ封建主義』で挑発的なテーゼを展開した。私たちは資本主義から何らかの形の封建主義へと退行しているというのだ。[23] テック巨大企業は「囲い込み庭園」を築き、ネットワーク効果とロックイン効果を利用してユーザーの離脱を防ぎ、「デジタル地代」を徴収することで利益を得ている。
この分析は生成AI空間に完璧に当てはまる。OpenAI、Google、Anthropicなどの企業は数十億ドルを投じてモデルを訓練し、途方もない参入障壁を築いた。[24] 彼らは「市場」で競争しているというよりも「荘園」を確立している——荘園に入るか(サブスクリプションを支払う)、外にとどまるか(時代遅れになる)を選べる。一度中に入れば、ロックインされる。ワークフローは特定のツールに適応し、プロンプトライブラリは特定のモデルに最適化され、プロジェクト履歴は特定のプラットフォームに保存されるのだ。
データの「原始的蓄積」
マルクスは『資本論』で資本主義の「原始的蓄積」を描いた。資本家たちは囲い込み運動や植民地略奪などの手段を通じて初期資本を蓄積し、工業化の基盤を築いたのだ。[25] 生成AIの台頭もまた「データの原始的蓄積」を経験した。テック企業はウェブクローラー、API、利用規約を通じて、人類が数千年にわたって蓄積してきた知識と創造作品を大規模に収穫した。
この蓄積の不公正は明白だ。Wikipediaの編集者は自分の寄稿が商業AIの訓練に使用されることに同意していなかった。GitHubのオープンソース開発者は自分のコードがCopilotの訓練に使用されることに同意していなかった。[26] アーティストは自分の作品がStable Diffusionの訓練に使用されることに同意していなかった。この「原材料データ」が数百億ドルの価値を持つAIモデルに変換されたとき、元の寄与者は何も受け取っていない。
知能は誰のものか?
これは根本的な法的・倫理的問いを提起する。AIモデルの「知能」——そう呼べるとすれば——は実際には誰に属するのか。法的観点からは未解決の問題である。米国で進行中のSarah Andersen et al. v. Stability AI訴訟[27]やThe New York Times v. OpenAI訴訟[28]はいずれも、AI企業が著作権のある作品を無断で使用することの合法性に異議を唱えている。しかしこれらの訴訟が成功しても、「著作権」という狭い法的カテゴリーにしか対処できない——「集合知の私物化」というより広い問題は未回答のままだ。
VI. 抵抗と代替案:可能な前進の道
オープンソースAIの可能性と限界
テック巨大企業の独占に直面して、オープンソースコミュニティは代替案の構築を試みている。MetaのLLaMAシリーズ、Mistral AIのモデル、Stability AIのStable Diffusionはすべてオープンソースまたはセミオープンソースの形態でリリースされている。[29] これらの努力は評価に値する——AIへの参入障壁を下げ、より多くの人がAIモデルを使用・研究・修正できるようにしている。
しかしオープンソースがすべての問題を解決するわけではない。まず、大規模モデルの訓練に必要な計算力とデータは依然として少数の大企業の手に集中しており——オープンソースモデルはしばしばこれらの企業がコミュニティに「恩恵として与える」副産物だ。次に、オープンソースモデルが真に「オープン」である程度はしばしば限定的だ——LLaMAの使用はライセンス制限の対象であり、訓練データは開示されていない。最後に、完全なオープンソースモデルがあっても、一般の開発者が独立して展開・実行するのは困難だ——依然としてクラウドサービスに依存する必要があり、クラウドサービスは少数の企業に独占されている。
「スローワーク」の可能性
おそらく必要なのはより良いツールではなく、「生産性」そのものに対する根本的な再考である。社会学者ハルトムート・ローザは「加速社会」を批判する。現代社会は「加速」の論理に支配されている——より速く働き、より速く消費し、より速く反応しなければならない。[30] AIツールはこの加速の論理の体現だ——タスクをより速く完了させるという約束だが、この「より速く」はより多くのレジャーではなく、より多くのタスクを生むだけだ。
「加速」の対極は「共鳴」(Resonanz)である——ローザは、良い人生とはタスクを最大効率で完了することではなく、世界との意味ある応答的な関係を確立することにあると論じる。この観点からすれば、コードを「手書きする」こと、イラストを「手描きする」こと、記事を「手作りする」ことは後退的な生産方式ではなく、自分自身の仕事との「共鳴」の関係を確立するための道筋なのだ。
「専門性」の再定義
最後に、「専門性」の意味を再考する必要がある。AI以前、「専門性」とは特定の知識やスキルを習得すること——コードを書ける、レイアウトをデザインできる、コピーを構成できること——を意味した。AI以後、これらの「ハードスキル」の価値は低下するかもしれない。AIもそれらをでき、しかもより速くできるからだ。[31]
しかし「専門性」はスキルだけでなく、判断力、センス、倫理観、文脈理解をも含む。AIはコードを生成できるが、そのコードがプロジェクト全体のアーキテクチャに適合するかどうかは判断できない。AIはコピーを生成できるが、そのメッセージがターゲットオーディエンスに適しているかどうかは判断できない。AIは画像を生成できるが、ビジュアルスタイルがブランドのアイデンティティと整合するかどうかは判断できない。これらの判断にはまだ人間が必要だ——ただし、人間がすべてを機械にアウトソースするのではなく、依然としてそうした判断を下す能力を保持している場合に限る。
結論:明晰なる依存
本稿の目的はAIのボイコットを呼びかけることではない——それは現実的でも賢明でもないだろう。AIは強力な技術であり、真に生産性を向上させ、参入障壁を下げ、以前は不可能だったことを可能にする。問題は「AIを使うかどうか」ではなく「AIをどう使うか」なのだ。
私たちに必要なのは「明晰なる依存」という形態だ——AIツールを使用しながら、何に依存しているか、何を犠牲にしているか、何を見返りとして得ているかを明確に認識すること。自問しなければならない。このツールは私の能力を発展させているか、それとも代替しているか。このツールは私の自律性を拡張しているか、それとも縮小しているか。このツールの利益を最終的に誰が享受しているのか。[32]
数百年前、小作人はおそらく地主なしの世界を想像できなかっただろう。しかし彼らの闘争——農民蜂起から土地改革まで——は最終的に歴史の流れを変えた。今日の「デジタル小作人」は、より隠された、より遍在的で、より抵抗困難な権力構造に直面している。しかしこれは抵抗が不可能であることを意味しない。自らの苦境を認識することが、抵抗への第一歩である。