1. 序論と核心的主張

本分析は、Herbert L. Roitblatの研究に基づき、汎用人工知能(AGI)の到来が目前とする支配的な言説に対して、異論的かつ批判的な見解を提示する。核心的主張は、現在および近い将来の生成AI(GenAI)モデル(大規模言語モデル(LLM)を含む)は、「人間依存負債」と呼ばれる根本的な制約により、AGIを達成することが本質的に不可能であると論じる。この負債とは、問題構造化、アーキテクチャ設計、精選された学習データに対して、AIが人間の入力に重く、不可避的に依存していることを指す。本論文は、AIからの真のリスクは超知性からではなく、その本質的な限界と人間の軽信性が組み合わさった誤用から生じると論じる。

2. 人間依存負債の概念

人間依存負債は、現代のAIが汎用知能への道筋にない理由を説明する核心的概念枠組みである。

2.1 定義と構成要素

人間依存負債は、以下の3つの重要な依存関係を含む:

  • 構造化された問題: 人間は、AIが処理できる形でタスクを枠組み付けなければならない。
  • アーキテクチャ設計: ニューラルネットワーク構造(例:Transformer)は人間の発明である。
  • 精選された学習データ: 膨大なデータセットは人間によって収集、フィルタリング、ラベル付けされる。

この負債は、AIシステムが新たな問題解決パラダイムを創造しているのではなく、人間が定義した境界内で最適化を行っていることを意味する。

2.2 依存としての人間の入力

GPT-4のようなモデルの成功は、しばしば誤って解釈される。Roitblatは、これらのモデルが成功するのは、人間がすでに核心的な知的課題を解決しており、モデルには勾配降下法のような「単純な計算」を実行させるだけだからだと論じる。モデルは強力なパターン適用装置であって、一般的な意味での問題定義者や解決者ではない。

3. AGI達成への根本的障礙

3.1 言語パターン学習の限界

現在のGenAIは、あらゆる問題を言語パターン学習問題として扱う。コーディング、画像生成、推論のいずれであれ、その根底にあるメカニズムは、学習データ内の統計的相関に基づいて次のトークン(単語、ピクセルパッチ)を予測することである。このアプローチは、非言語的、抽象的、あるいは過去の人間の表現に含まれていない新奇な推論を必要とする問題に対して、本質的に限界がある。

3.2 真の自律性の欠如

AGIには自律性が必要である。つまり、自ら目標を設定し、新たな問題を定義し、明示的な指示なしにスキルを獲得する能力である。Luら(2024)が指摘するように、LLMは単に指示に従うだけである。それらは、汎用知能の礎石である、自律的なスキル習得のための内発的動機や能力を欠いている。

3.3 問題類型の問題

重要な障礙は、複数の問題タイプを認識できないことにある。「洞察問題」(例:9点問題)のような一部の問題は、漸進的な最適化やデータからのパターンマッチングでは解決できない。それらは問題空間の再構築を必要とするが、この能力は現在の勾配ベースの学習システムには欠けている。

4. 欠陥のある評価パラダイム

4.1 ベンチマークの不備

ARC-AGIのようなベンチマークは、汎用性を測定するには不十分である。テストを通過することは、それがどのように通過されたかを明らかにしない。モデルは、狭いテスト特化のトリック(例:暗記)や、一般的な推論原理を使用した可能性がある。ベンチマークは性能を測定するものであり、能力の根底にある汎用性を測定するものではない。

4.2 後件肯定の誤謬

本論文は、AI評価における重要な論理的誤り、すなわち後件肯定の誤謬を強調する。その形式は次の通り:もしある実体がAGIを持っているならば、それはテストTに合格する。その実体はテストTに合格した。したがって、それはAGIを持っている。これは誤謬である。タスクの成功は、論理的に汎用知能の使用を意味するものではない。なぜなら、同じ出力は多くの異なる(そして能力の低い)メカニズムによっても生成され得るからである。

5. AGIの誇大広告と現実

AGI論争における主要指標

  • 88% – 達成済みと推定される必要なAGI能力の割合(Thompson, 2025)。
  • 33,000+ – LLM開発の一時停止を求めるFuture of Life Instituteの公開書簡への署名数(2023)。
  • 2025 – パリで開催された人工知能行動サミットの年。

5.1 予測と主張

この分野は、業界リーダー(Altman, 2025; Leike & Sutskever, 2023)による近い将来のAGIに関する大胆な予測(例:「能力の88%」などと数値化されることが多い)によって特徴づけられており、これらは「AI安全時計」のような象徴的な警告と対照をなしている。

5.2 高まる懸念と規制対応

これらの予測は重大な懸念を引き起こしている。Center for AI Safety(2023)の声明は、AIリスクをパンデミックや核戦争と同等と見なしている。米国国務省が委託したGladstone Report(Harris et al., 2024)は、研究所間の競争によって駆動される「大量破壊兵器のような」リスクを警告している。これは、カリフォルニア州で提案された「キルスイッチ」義務化を含むSB-1047のような規制努力を促したが、同法案は拒否権を行使された。

6. 技術分析と数学的枠組み

現在のモデルの限界は、その最適化目的の観点から部分的に理解できる。標準的なLLMは、文脈 $x_{

$$\mathcal{L}_{LLM} = -\sum_{t} \log P(x_t | x_{

ここで $\theta$ はモデルパラメータである。この目的は、モデルを学習データ多様体内での内挿の専門家に仕立て上げる。しかし、AGIには外挿抽象化が必要である。つまり、学習事例の凸包の外側にある問題を解決することである。「洞察問題」の障礙は、空間 $S$ 内で解 $s^*$ を見つけることとしてモデル化でき、問題 $p$ から $s^*$ への経路は、データから学習されない非微分可能な変換 $T$ を必要とする:

$$s^* = T(p), \quad \text{where } \nabla_\theta T \text{ is undefined or zero.}$$

勾配ベースの学習($\theta \leftarrow \theta - \eta \nabla_\theta \mathcal{L}$)は、このような $T$ を発見できない。これは、「記号接地問題」(Harnad, 1990)のような古典的AIからの議論と一致する。同問題は、純粋な構文操作から意味論がどのように生じるかを問うものである。

図:内挿と外挿のギャップ

概念図: 2次元平面は、可能な問題と解決策の空間を表す。点の密集した雲は学習データ(人間が提供した問題と解決策)を表す。現在のGenAIモデルは、この雲の中での解決策発見(内挿)に優れている。赤い「X」は「洞察問題」を示し、その解決策は雲の外側にある。雲から「X」へと至る滑らかな勾配経路は存在せず、到達するには推論における不連続な飛躍が必要であり、これは勾配降下法では達成できない。これは視覚的に人間依存負債を表している:モデルは人間が提供したデータの雲に閉じ込められている。

7. 分析枠組み:AGI能力マトリックス

誤謬的なベンチマークを超えるために、定性的評価マトリックスを提案する。「テストに合格したか?」ではなく、「その能力の本質は何か?」と問う。任意のタスクTに対して、以下の2軸に沿って評価する:

  1. 手法の汎用性(G): 解決手法はTに特化しているか(G=0)、タスクのクラスに適用可能か(G=1)、あるいはドメインに依存しないか(G=2)?
  2. 問題定式化における自律性(A): 問題は人間によって完全に定義されたか(A=0)、システムによって部分的に洗練されたか(A=1)、あるいはシステムによって自己発見/定義されたか(A=2)?

事例(ARC-AGIベンチマーク): 特定のARCパズルパターンの解決策を暗記するモデルは(G=0, A=0)のスコアとなる。未見のARCパズルに適用可能な一般的な視覚推論ヒューリスティックを学習するモデルは(G=1, A=0)となる。ARCパズルを解決するだけでなく、自ら新たな種類の抽象的推論パズルを特定するシステムは(G=2, A=2)に近づく。現在の最先端(SOTA)モデルは、おそらく(G=0/1, A=0)の象限で動作している。真のAGIは、(G=2, A=2)での一貫した動作を必要とする。この枠組みは、後件肯定の誤謬を明確にする:高いテストスコアは、性能を確認するだけで、高いGやAのスコアを確認するものではない。

8. 将来の方向性と研究展望

AGIの達成には、現在のアーキテクチャの単純なスケーリングではなく、パラダイムシフトが必要となる。

  • 世界モデルと身体性認知: 受動的なテキスト予測を超え、ロボティクスやシミュレーション(例:DeepMindのSIMA)の進歩に見られるように、相互作用を通じて世界の内部モデルを構築する能動的エージェントへの研究が進む必要がある。これにより、精選された言語データへの依存が軽減される。
  • ニューロ・シンボリックハイブリッド: ニューラルネットワークのパターン認識能力と、シンボリックAIの明示的で合成可能な推論(MIT-IBM Watson Labなどで研究されている)を統合することで、「洞察問題」の障礙に対処できる可能性がある。
  • 自己主導型学習目的: システムが自らの学習目標を生成することを可能にする内発的動機付けアルゴリズムの開発。これは人間が定義した損失関数を超えるものであり、AI研究における新興分野である。
  • 新たな評価科学: 汎用性(G)と自律性(A)を明示的にテストするベンチマークの作成。おそらく、メタ学習と問題定式化スキルを探る、オープンエンドで自動生成された課題スイートを通じて行われる。

この分析の最も直接的な「応用」は、政策と投資にある:規制は、偏ったまたは信頼性の低いシステムによる具体的で近い将来の害に焦点を当てるべきであり、推測的なAGIの支配には焦点を当てるべきではない。投資は、単にデータとパラメータをスケールすることではなく、人間依存負債を軽減する基礎研究に向けられるべきである。

9. 批判的分析者の視点

核心的洞察: AI業界は深刻な「出力近視」に苦しんでいる。我々は流暢なテキストや驚くべき画像に魅了され、統計的能力を理解と取り違えている。Roitblatの「人間依存負債」は、この隠れた依存関係を表す完璧な用語である。それはサーバールームの象(誰もが知っているが触れない問題)だ。あらゆる「画期的進歩」は、よく調べてみれば、機械が生み出した知性ではなく、データの精選と問題の枠組み付けにおける人間の創意工夫の証である。本当の物語はAIの力ではなく、それを強力に見せている膨大で、しばしば見えない人間の労働である。

論理的流れ: この議論は壊滅的に単純で、論理的に完璧である。1)目標を定義する(自律的で汎用的な問題解決としてのAGI)。2)道具を検討する(人間のデータ上のパターンマッチャーとしてのGenAI)。3)不一致を特定する(道具の核心的操作は人間による前処理に依存している)。4)誤りを診断する(道具の出力と目標の要件を混同する)。5)体系的欠陥を暴露する(暗記と理解を区別できない評価方法)。これは哲学ではなく、基本的な工学上の説明責任である。

長所と欠点: その長所は、基礎的な批判にある。それは「AGIは近い」という物語全体の前提を、希望のアーキテクチャそのものを問うことで攻撃する。その欠点は、おそらく、創発からの反論(連鎖思考推論のような質的に新しい能力が、我々がまだ理解していない方法でスケールにおいて創発する可能性)に十分に向き合っていないことにある。しかし、本論文は正しく反論している:創発は魔法ではなく、依然として学習目的 $\mathcal{L}_{LLM}$ によって制限されている。そのための項を持たない損失関数から自律性が創発することはできない。

実践的洞察: 政策立案者にとって: SF的な誇大広告は無視せよ。目の前にあるもの、すなわちデータプライバシー、アルゴリズムバイアス、労働力の置換、学習の環境コストを規制せよ。自分で靴紐も結べないモデルのための「キルスイッチ」はセキュリティ・シアター(見せかけの対策)である。投資家にとって: AGI達成を前提とした評価額を持つ企業には深く懐疑的であれ。AGIという実体のない商品を売る企業ではなく、堅牢なAIで特定の価値ある問題を解決する企業に賭けよ。研究者にとって: ベンチマークリーダーボードを追いかけるのはやめよ。意図的にモデルの理解の幻想を打ち破ろうとする実験を設計し始めよ。人間依存負債を最小化するアーキテクチャを追求せよ。前進の道は、同じデータを増やすことではなく、根本的に異なる学習原理を通じたものである。時計はAGIへのカウントダウンを刻んでいるのではなく、我々が間違った関数を最適化してきたことに気づく瞬間へのカウントダウンを刻んでいる。

10. 参考文献

  1. Roitblat, H. L. (Source PDF). Some things to know about achieving artificial general intelligence.
  2. Chollet, F. (2019). On the Measure of Intelligence. arXiv preprint arXiv:1911.01547.
  3. Lu, Y., et al. (2024). [LLMが指示に従うことに関する参考文献].
  4. Harris, J., Harris, T., & Beal, B. (2024). The Gladstone Report. U.S. Department of State.
  5. Center for AI Safety. (2023). Statement on AI Risk. https://www.safe.ai/work/statement-on-ai-risk
  6. Future of Life Institute. (2023). Pause Giant AI Experiments: An Open Letter. https://futureoflife.org/open-letter/pause-giant-ai-experiments/
  7. Harnad, S. (1990). The Symbol Grounding Problem. Physica D: Nonlinear Phenomena, 42(1-3), 335–346.
  8. Zhu, J., et al. (2017). Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks. Proceedings of the IEEE International Conference on Computer Vision (ICCV). (人間が精選したペアデータなしで学習する例(CycleGAN)—人間依存負債の一形態を軽減する小さな一歩)。
  9. DeepMind. (2024). SIMA: Generalist AI Agent for 3D Virtual Environments. https://www.deepmind.com/sima (身体性を持ち世界モデルを構築するエージェントに向けた研究の例)。