2025年6月、MIT Media Labは不穏な脳波研究を発表した。人間がChatGPTを使ってエッセイを書く際、脳の神経結合性が最大55%低下する――検索エンジン使用時の34~48%の低下幅よりもはるかに深刻であった。[1]さらに衝撃的なことに、ChatGPT使用者の83%は、AI支援で書いた自身のエッセイの主要な論点を思い出すことができなかった――文章を書いたにもかかわらず、何を書いたか記憶していなかったのである。同年、Whartonビジネススクールが『米国科学アカデミー紀要』(PNAS)に発表した実地実験は教育的パラドックスを暴いた。GPT-4を無制限に使用した高校生は練習での成績が48%向上したが、続くAIなしの試験では成績がかえって17%低下した。[2]Brookings Institutionの50カ国にまたがる研究はこの現象を「AI依存の悪循環」(doom loop of AI dependence)と名付けた――学生はAIに思考を外注し、認知能力が萎縮し、さらにAIに依存し、能力がさらに退化する。[3]Lancetは初の臨床的デスキリングの実証研究を掲載した――AI補助大腸内視鏡検査を使用していた医師は、AIが除去された後、腺腫検出率が20%低下した。[4]これら神経科学、教育、医療、ソフトウェア工学からの実証データは、共通して深刻な警告を示している。AIエージェントは単に我々の働き方を変えているのではない――我々の思考の仕方を変えているのだ。そしてその変化は、より良い方向ではないかもしれない。
一、認知外注の神経科学的証拠:あなたの脳は変わりつつある
2008年、『The Atlantic』の表紙記事が世代的な問いを投げかけた。「Googleは我々を愚かにしているか?」著者のNicholas Carrは、長期的なインターネット使用が人間の認知パターンを変えていることを観察した――深い読書から浅い走査へ、集中した思考から分散した注意力へ。[5]2年後、Carrは著書『The Shallows』で神経可塑性(neuroplasticity)の科学を基盤に、この論点を体系的に展開した。脳は使用パターンに応じて自らを再形成する――断片的な方法で継続的に情報を取得すれば、脳の深層処理回路は徐々に弱体化する。この論点は当時激しい議論を引き起こしたが、17年後、MIT Media Labの脳波研究がCarrの枠組みに対する最も直接的な神経科学的検証を提供した――ただし今回我々が直面しているのは検索エンジンではなく、生成AIなのである。
MIT Media LabのNataliya Kosmynaチームは精巧な実験を設計した。[1]54名の被験者がランダムに3つのグループに分けられた。自分の脳だけでエッセイを書く「純脳グループ」、検索エンジンを補助的に使用する「検索グループ」、ChatGPTを補助的に使用する「LLMグループ」である。執筆過程全体を通じて、研究者は脳電図(EEG)で被験者の脳活動をリアルタイムに測定した。結果は明確な勾配を示した。検索グループの脳領域間結合性は純脳グループに比べて34~48%低下し、LLMグループでは最大55%低下した。研究者の言葉を借りれば、脳の結合性は「外部支援の増加に伴い系統的に低下」した。
より深層的な発見は事後の記憶テストに現れた。ChatGPT使用者の83%は自分のエッセイの主要な論点を想起できなかった――文章を生産したが、その内容を長期記憶に符号化していなかったのである。これは偶然の物忘れではなく、根本的な認知メカニズムを反映している。脳が外部ツールに情報を「記憶」させることを期待すると、自身の符号化努力を低下させるのだ。心理学者はこの現象を「Google効果」(Google effect)あるいは「デジタル健忘症」(digital amnesia)と呼び、2011年にBetsy Sparrowが最初に実験で発見した。しかしMITの研究はこの概念をさらに推し進めた――検索エンジンとは異なり、生成AIは情報を「記憶」するだけでなく「生産」する。その結果、構想から構成、表現に至る認知チェーン全体における人間の脳の関与が大幅に低下したのである。
研究者は発見を枠組み化するために「認知負債」(cognitive debt)という概念を使用した――この用語は異なる学術的文脈で独立に提唱されてきた。MIT Media Labは神経認知レベルの退化を記述するためにこれを使用し、ビクトリア大学のMargaret-Anne Storey教授は2026年2月にソフトウェア工学における開発者のコード理解の喪失を記述するために使用した。[6]二つの用法は一見異なるが、同じ構造的問題を指し示している。AIが人間に代わって認知タスクを実行すると、人間は産出物だけでなく、産出する過程で構築される理解をも失うのである。
この発見の制度的含意は深遠である。知識経済において、人的資本の核心は「何を知っているか」ではなく「どう考えるか」――批判的思考、問題のフレーミング、分野横断的統合にある。もしAIツールがこれらの高次認知機能における脳の活動を系統的に低下させているなら、長期的にAIを使用する知識労働者はパラドックスに直面しうる。即時の産出は増加するが、その産出を生み出すために必要な根本的能力――認知能力――は退化しているのだ。これは、機械外骨格を使ってより速く走る運動選手が、自身の筋肉は萎縮している状態に似ている――外骨格が動作している限り全て順調に見えるが、一度故障すれば、歩くことさえ困難になるかもしれない。
二、教育前線のデスキリング危機:Wharton実験からグローバルな警鐘まで
MITの研究が認知外注の神経学的メカニズムを明らかにしたとすれば、WhartonビジネススクールのHamsa BastaniチームがPNASに発表した実地実験はその教育的帰結を明らかにした――しかもその帰結は多くの人の予想より深刻であった。[2]
研究チームはトルコで大規模な実地実験を行った。約1,000名の高校生がランダムに3グループに分けられた。AIなしの対照群、GPT-4を無制限に使用する「GPT Base」群、そして精巧に設計された「GPT Tutor」群(AIが直接の答えではなく誘導的なヒントを提供)である。数週間にわたる数学練習で、GPT Base群の成績は対照群より48%高く、GPT Tutor群はさらに127%高かった。これらの数字はAI教育革命の有力な証拠に見えた。しかし、続いて行われたAIツールなしの期末試験で、結果は劇的に逆転した。GPT Base群の成績は対照群より17%低かったのである。
この17%の成績低下は統計的ノイズではない――構造的な学習損傷である。学生がGPT-4を無制限に使用した場合、学習プロセスの最も重要なステップ――苦闘し、間違え、修正し、理解するという過程を実質的にスキップしていた。教育心理学の研究は長年にわたり、「望ましい困難」(desirable difficulties)――学習過程における適度な挫折と挑戦――が深い学びの必要条件であることを示してきた。AIはこれらの困難を除去すると同時に、学び自体をも除去したのである。
しかしWharton実験の最も重要な発見は問題ではなく、解決策であった。GPT Tutor群――精巧に設計されたガードレールを使用したグループ――の期末試験での成績は対照群と有意差がなかった。[7]つまり、AIが「直接の答えではなくヒントを提供」するよう設計された場合、学習への損害はほぼ完全に消失した。この発見は重大な政策的含意を持つ。問題は「AIを使うかどうか」ではなく、「AIと人間のインタラクション・インターフェースをどう設計するか」にある。直接答えを提供するAIツールと、学生の思考を誘導するAIツールは、表面上は差異が小さいが、学習成果への影響は天と地ほどの差がある。
Brookings Institutionが2026年1月に発表した大規模なグローバル研究は、個別の実験結果をグローバルな全体像へと結びつけた。[3]研究チームは1年をかけて50カ国以上でフォーカスグループインタビューと詳細調査を実施し、K-12の生徒、保護者、教員、テクノロジー専門家を対象とした。結論は厳しいものだった。フィードバックの56%がAIの危害を強調し、利益に言及したのは44%にとどまった。研究者は「AI依存の悪循環」を特定した――学生はAIを使って課題を完成させ、認知能力は練習不足により萎縮し、萎縮した認知能力がさらにAI依存を深め、依存がさらに認知萎縮を加速する。これは理論上の仮説ではない――研究者が50カ国の教育現場でこのサイクルの具体的な発現を観察したのである。
Gartnerの予測は教育の問題を職場に拡張した。2025年10月、Gartnerは年次ITシンポジウムで注目すべき予測を発表した。2026年までに、生成AIの使用による批判的思考能力の退化のため、全世界の組織の50%が「AIフリー」のスキル評価を義務化せざるを得なくなる。[8]金融、医療、法律などの高リスク産業では、独立して思考できる人材が希少になり、企業の人材獲得コストが上昇する。Gartnerは同時に、2027年までに採用プロセスの75%が職場AIの熟練度証明を要求するようになると予測した――「スキルのパラドックス」が形成される。企業は従業員にAIを巧みに使えることを求める一方で、AIなしでも独立して思考できることをも求めるのだ。
AnthropicのJudy Hanwen ShenとAlex Tamkinが2026年1月に発表した研究は、異なる角度からWharton実験の発見を検証した。[9]彼らは52名のプロのプログラマーを募集し、ランダムにグループ分けして新しい非同期プログラミングライブラリの学習を行わせた。AI支援グループはスキル評価で対照群より17%低い得点となった――この差は初心者、中級者、エキスパートのプログラマー全てにおいて統計的に有意であった。より精細な分析は6種類の異なるAIインタラクションパターンを明らかにし、そのうち3種類は学習効果を保持し(例:AIに直接答えを求めるのではなく説明を求める)、残りの3種類は学習を深刻に損なった。AIに完全委任した被験者の得点が最も低く、AIに説明を求めた被験者の得点が最も高かった――再びWharton実験のコアな発見を裏付けた。学習成果を決定するのはAIを使うかどうかではなく、どのように使うかなのである。
三、自動化の皮肉と臨床的デスキリング:理論から医療実証まで
1983年、英国のヒューマンファクター専門家Lisanne BainbridgeはAutomatica誌にわずか5ページの論文を発表した。タイトルは「自動化の皮肉」(Ironies of Automation)。[10]この論文は自動化研究における最も古典的なパラドックスを提示した。自動化の程度が高まるほど、人間のオペレーターの役割はより重要になる――なぜなら自動化が対処できない異常事態に対処できるのは人間だけだからだ――しかし自動化は同時に、人間がそれらの状況に対処するために必要なスキルと警戒心を侵食する。Bainbridgeは原子力発電所の制御室の例で説明した。オペレーターは99%の時間を自動化システムの監視に費やすだけだが、1%の異常事態では即座に高度に複雑な判断を下さなければならない――そして長期間の受動的な監視こそが、まさにこれらの判断を下す能力を弱体化させるのである。
42年後、Bainbridgeの理論的予言は彼女が想像もしなかった領域――AI支援医療――で初の臨床的検証を受けた。2025年8月、Lancet Gastroenterology & Hepatologyはポーランドの4つの医療センターで行われた多施設観察研究を掲載した。Krzysztof Budzynチームによる研究である。[4]研究対象はACCEPT臨床試験中にAI補助検出システム(CADe)を使用し、その後試験終了後にAIのない作業環境に戻った19名の経験豊富な大腸内視鏡医師(内視鏡医)であった。研究は1,443件の大腸内視鏡検査の結果を追跡した。
結果は衝撃的だった。AI使用前、これらの医師の腺腫検出率は28.4%であった。一定期間AIを使用した後にAIのない環境に戻ると、検出率は22.4%に低下した――相対的に20%の低下である。これは新人医師のデータではなく、何年もの経験を持つベテラン医師のものである。さらに重要なことに、これは実験室環境のシミュレーション結果ではなく、実際の患者が関わる実臨床シナリオにおけるデスキリングの証拠であった。腺腫検出率の低下は大腸がんの早期発見に直接影響し、患者の生存率に関わる。ヒューマンファクター工学の文献において、臨床医学における自動化誘発のデスキリング効果が観察されたのはこれが初めてであり、その意義は大腸内視鏡検査の狭い範囲を遥かに超える。
Lancet研究の構造的含意は深い考察に値する。もしAI補助検出システムが使用中の検出率を確かに向上させたとしても(ACCEPT試験ではAI群の検出率は54.8%で、非AI群の40.4%を大幅に上回った)、同時にAI除去後の医師の能力退化を引き起こすのであれば、我々が直面しているのは典型的な「ロックイン効果」である。一度AIの使用を開始すると、安全に停止することができない――なぜなら停止は「原点に戻る」ことではなく、「原点より悪い状態に退くこと」を意味するからだ。Bainbridgeの枠組みにおいて、これこそ自動化の最も深い皮肉である。我々は人間の能力の限界を超えるために自動化を導入するが、自動化の副作用は人間の能力の境界をさらに縮小させ、自動化への依存を選択ではなく必然とするのだ。
このデスキリング・パラドックスはソフトウェア工学にも存在する――そしてさらに深刻かもしれない。先の分析で論じたように、Vibe Coding革命はジュニアエンジニアの育成パイプラインを崩壊させつつある。[6]AIがジュニア開発者に代わってコードの大部分を書くとき、これらの開発者は「コード直感」を培う機会を失う――Lancet研究の医師が「視覚的検出直感」を培う機会を失ったのと同様に。違いは、大腸内視鏡検査のデスキリングは数ヶ月で観察できるが(検出率を直接測定できるため)、ソフトウェア工学のデスキリングは顕在化に数年かかりうること――そして顕在化したときには、すでに不可逆的な人材の断層が生じているかもしれないことだ。
AIエージェント経済の文脈において、デスキリング・パラドックスの影響はさらに深遠である。OpenClawなどのエージェント型AIフレームワークが、自然言語を通じてAIエージェントに完全なワークフローを指示できるようにするとき、人間は個別の認知タスクを外注しているのではなく、問題の定義、解決策の設計から実行と評価に至る認知プロセス全体を外注しているのだ。ChatGPTでエッセイを書くだけで脳の結合性が55%低下するのであれば、AIエージェントにワークフロー全体を管理させた場合の認知への影響はどうなるのか。直接的な実証研究はまだないが、Bainbridgeの理論の論理的延長に基づけば、答えは心強いものとはなりそうにない。
四、認知負債の制度的帰結:企業、専門職、国家の次元
Microsoft Researchが2025年のCHI大会で発表した研究は、職場における認知外注の最も包括的な実証的全体像を提供した。[11]研究チームは319名の知識労働者を調査し、936件の生成AI使用事例を収集した。被験者の自己報告による認知努力の低下は、Bloom分類法(教育心理学における認知レベル評価の古典的枠組み)の各レベルで驚くべきものだった。知識レベルで72%低下、理解レベルで78%低下、応用レベルで70%低下、分析レベルで71%低下、統合レベルで76%低下、評価レベルで55%低下。
これらの数字の構造は細かく読む価値がある。低下幅が最も大きいのは「理解」レベル(78%)、最も小さいのは「評価」レベル(55%)――これは現在のAIの能力プロファイルを正確に反映している。生成AIは情報の統合と要約に長けており(理解レベルに対応)、価値判断と批判的評価においては比較的弱い(評価レベルに対応)。しかし、AIが比較的弱い評価レベルにおいてさえ、認知努力の低下は55%――半分以上に達した。研究者が観察したのは量的変化だけでなく質的変容でもあった。批判的思考の性質が「情報収集」から「情報検証」へ、「問題解決」から「AI出力の統合」へ、「高次思考」から「AIの管理」(stewarding)へと変容したのである。
この「思考者」から「管理者」への役割転換は、個人レベルでは効率向上かもしれない――研究者が指摘するように、多くの被験者は仕事の品質が向上したと報告した。しかし制度レベルでは、一連の構造的問題を提起する。
第一に、専門的判断力の系統的退化。法律、医療、金融などの専門分野において、実務家の核心的価値は情報収集にあるのではなく(AIの方がより速く包括的に行える)、専門的判断にある――不完全な情報の下で取捨選択を行い、矛盾する証拠の間で裁定し、複雑な利害関係の中でバランスを見出すことだ。これらの専門家の認知努力がBloomの全レベルで55~78%低下しているとき、彼らの専門的判断力も並行して退化しているのか。Lancetの大腸内視鏡研究は医療分野の実証を提供し、Shen & Tamkinのプログラミング研究はソフトウェア工学分野の実証を提供した。しかし法律、金融、政策分析などの分野では、類似の実証研究がまだ乏しい――これ自体が懸念すべき知識のギャップである。
第二に、組織知識の脆弱化。世界銀行や国連で政策研究を主導した私の経験から、組織のコア能力は個人の頭脳の中にだけでなく、チームメンバー間の共有理解の中にも存在することを深く認識している――問題に対する共通のフレーム、方法論のコンセンサス、品質基準に対する暗黙の了解である。各メンバーが認知作業の大部分をAIに外注すると、この共有理解の構築プロセスが弱体化する――各人に自分のAI出力があるが、チームには共通の認知体験が欠ける。ソフトウェア工学においてStorey教授はこれを「認知負債」の組織的次元として特定している。[6]しかしこれは全ての知識集約型組織に等しく存在する問題である。
第三に、国家レベルの認知レジリエンス・リスク。Brookingsの50カ国研究は認知外注の問題を組織レベルから国家レベルに引き上げた。[3]一国の教育システムがWharton実験が明らかにしたような精巧に設計されたガードレールなしにAIツールを大規模に採用した場合、一世代の学生が「AI依存の悪循環」の中で育つ可能性がある――AIを使って高品質の課題を生産できるが、独立して思考する能力を欠く。地政学的緊張が高まる時代において、国家の認知レジリエンス――その国民の独立思考、批判的分析、創造的問題解決の集団的能力――は戦略的資産である。人材と国力の関係を分析した際に強調したように、人的資本の品質は国家競争力の基盤である。もしAIツールがその基盤を系統的に侵食しているのであれば、AI教育応用のガバナンスは教育政策の問題にとどまらず、国家安全保障の問題なのである。
第四に、AIサプライチェーンの地政学的脆弱性。企業と国家がますます多くの認知機能をAIシステムに外注するとき、それらのAIシステムのサプライチェーン――半導体製造、モデル訓練からAPIサービスまで――は認知インフラの一部となる。デジタル主権の分析で指摘したように、コア能力が外部供給者に依存するとき、サプライチェーンの中断はビジネスの中断にとどまらず、認知の中断となる。Lancet研究のデスキリングの発見はこのリスクをさらに深刻にする。AIサービスが復旧した後でも、中断期間に露呈した人間の能力退化はすでに不可逆的な損失を引き起こしている可能性があるのだ。
五、認知主権の再建:AIリテラシー・フレームワークと人間とAIの協働の正しいアーキテクチャ
認知外注の構造的リスクに直面して、解決策はAIを拒否することではない――それは不可能であり賢明でもない――正しい人間とAIの協働アーキテクチャを設計することである。Wharton実験のコアな発見が最も重要な手がかりを提供する。精巧に設計されたガードレールはAIの学習への損害を消し去ることができる。[2]GPT Tutor群の成功は、鍵はAIを使うかどうかではなく、AIのインタラクション設計にあることを証明した――直接の答えではなくヒントを提供するAIは、直接答えを提供するAIとは、人間の認知に対する影響が根本的に異なる。
OECDと欧州委員会が2025年に共同発表したAIリテラシー・フレームワークは、制度的対応の出発点を提供する。[12]Code.orgと国際専門家パネルの支援で開発されたこのフレームワークは、初等中等教育におけるAIリテラシーの4つのコア能力を定義する。AIに参加する(Engage with AI)――AIの基本原理と限界を理解する。AIで創造する(Create with AI)――AIと効果的に協働してタスクを完成できる。AIを管理する(Manage AI)――AIの出力を批判的に評価しバイアスを識別できる。AIを設計する(Design with AI)――AIシステムの設計上の決定とその社会的影響を理解する。このフレームワークのコア理念は、AIリテラシーは「AIの使い方」という技術的能力にとどまらず、「AI時代にいかに独立して思考するか」という認知能力でもあるということだ。
しかし、フレームワークは出発点に過ぎない。これを効果的な教育実践に転換するには、いくつかの重要な設計上の問いに答える必要がある。
第一に、「認知フィットネス」の概念。身体の健康が定期的な運動を必要とするのと同様に――エレベーターがあっても時には階段を使うべきである――認知の健康も定期的な「AIフリーの思考練習」を必要とする。Gartnerが予測する「AIフリーのスキル評価」はこの概念の企業における実現形態のひとつである。しかしより体系的なアプローチは、「認知フィットネス」を教育カリキュラムと専門家育成の設計に埋め込むことだ。[8]例えば、医学教育ではAI支援訓練と「AIフリーの診断練習」を交互に行い、医師の独立した判断力がAI支援により退化しないよう確保する――Lancet研究の発見はこの提言を理論的建議から臨床的必然へと変えた。
第二に、インタラクション設計における「認知保護」原則。Wharton実験におけるGPT Tutorの成功と、Shen & Tamkin研究における「AIに説明を求める」戦略の有効性は、共通する設計原則を示唆する。AIツールは人間の思考を増強するよう設計されるべきであり、置き換えるよう設計されるべきではない。[9]具体的には、AIは完成した産出物ではなく、フレームワーク、ヒント、フィードバックを優先的に提供すべきである。ソフトウェア工学では、AIコーディングツールは単にコードを生成するだけでなく、その設計上の決定を説明できるべきである。医療では、AI診断支援は直接診断結論を出すのではなく、観察した異常な特徴を強調表示すべきである。この原則のコアは、AIの出力は人間の思考の「代替品」ではなく、「入力」であるべきだということだ。
第三に、制度レベルの「認知レジリエンス」監査。企業が財務監査やサイバーセキュリティ監査を行うのと同様に、将来の企業ガバナンスには「認知レジリエンス監査」の導入が必要かもしれない――AIツールが利用できない状況で、組織のコア業務機能が許容可能な品質水準を維持できるかを評価するものだ。[13]この概念は企業デジタルレジリエンスの枠組みですでに議論されている。認知外注の実証研究はこれを先見的な建議から喫緊のガバナンス・ニーズへと変えた。具体的な監査項目には、AIフリー環境における主要人員の専門能力テスト、AIサプライチェーン中断時の応急計画、組織内の知識伝承メカニズムの健全性評価などが含まれうる。
第四に、国家レベルのAI教育ガバナンス。台湾は2025年に人工知能基本法を通過させ、AIガバナンスの法的枠組みを提供した。しかし教育領域のAIガバナンスには、具体的な政策指針がまだ欠けている。Brookingsのグローバル研究が56%のフィードバックがAIの教育における危害を強調したことを踏まえ、台湾にはラッダイト式の全面禁止も、ガードレールなしの全面開放も避ける、明確なAI教育政策が必要である。OECDのAIリテラシー・フレームワークは参考アーキテクチャを提供するが、台湾の教育コンテキストに合わせたローカライゼーションが必要だ。
私の見解では、認知外注の課題は最終的にはより深い問いを指し示す。AI時代において「人間」の不可替代な価値とは何か。AIがより速く包括的に情報を収集し、より流暢にテキストを書き、より正確に異常を検出できるのであれば、認知チェーンにおける人間の役割は何なのか。MITの研究、Whartonの実験、Lancetの臨床データ、Microsoft Researchの職場調査は共通して一つの答えを示している。人間の不可替代な価値は「認知タスクを実行する」効率ではなく、「なぜそのタスクを実行すべきかを理解する」判断力にある――目的の設定、価値の衡量、倫理の考慮である。しかしこれらの高次認知能力は生まれつきのものではない――大量の「低次」の認知練習を通じて培われなければならない。指揮者がオーケストラの各パートの役割を理解するために、まず少なくとも一つの楽器を演奏できるようにならなければならないのと同様である。もしAIがこれらの「低次」練習の必要性を消去するなら、我々は効率を追求する中で、判断力を培う経路を断ち切ってしまうかもしれない。これが認知外注の最も深い皮肉であり――Bainbridgeが42年前に予見した「自動化の皮肉」がAI時代に完全に展開された姿なのである。
参考文献
- Kosmyna, N. et al. (2025). Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task. MIT Media Lab / arXiv:2506.08872. media.mit.edu
- Bastani, H. et al. (2025). Generative AI without guardrails can harm learning: Evidence from high school mathematics. Proceedings of the National Academy of Sciences (PNAS), 122(26). pnas.org
- Burns, M. et al. (2026). A New Direction for Students in an AI World: Prosper, Prepare, Protect. Brookings Institution, Center for Universal Education. brookings.edu
- Budzyn, K. et al. (2025). Endoscopist deskilling risk after exposure to artificial intelligence in colonoscopy: a multicentre, observational study. The Lancet Gastroenterology & Hepatology, 10(10), 896-903. thelancet.com
- Carr, N. (2008). Is Google Making Us Stupid? The Atlantic. theatlantic.com; Carr, N. (2010). The Shallows: What the Internet Is Doing to Our Brains. W. W. Norton & Company.
- Storey, M.-A. (2026). Cognitive Debt: A New Challenge in AI-Assisted Development. margaretstorey.com
- Wharton Knowledge. (2025). Without Guardrails, Generative AI Can Harm Education. knowledge.wharton.upenn.edu
- Gartner. (2025). Top Strategic Predictions for IT Organizations and Users in 2026 and Beyond. gartner.com
- Shen, J. H. & Tamkin, A. (2026). How AI Impacts Skill Formation. Anthropic. arXiv:2601.20245. anthropic.com
- Bainbridge, L. (1983). Ironies of Automation. Automatica, 19(6), 775-779. doi.org
- Lee, H.-P. et al. (2025). The Impact of Generative AI on Critical Thinking: Self-Reported Reductions in Cognitive Effort and Confidence Effects From a Survey of Knowledge Workers. Microsoft Research / CHI 2025. microsoft.com
- OECD & European Commission. (2025). Empowering Learners for the Age of AI: An AI Literacy Framework for Primary and Secondary Education. ailiteracyframework.org
- Gartner. (2025). Strategic Predictions for 2026: AI-Free Skills Assessments. gartner.com