2.1 定义与构成要素
“人类依赖债”包含三个关键依赖:
- 结构良好的问题:人类必须以AI能够处理的方式来框定任务。
- 架构设计:神经网络结构(如Transformer)是人类发明的。
- 人工筛选的训练数据:海量数据集由人类收集、过滤和标注。
这种“债务”意味着AI系统并非在创造新的问题解决范式,而是在人类定义的边界内进行优化。
本分析基于Herbert L. Roitblat的工作,对当前关于通用人工智能即将到来的主流叙事提出了相反且批判性的观点。其核心论点认为,当前及可预见的生成式人工智能模型,包括大语言模型,由于一个被称为“人类依赖债”的根本性约束,本质上无法实现AGI。此“债务”指的是它们对问题结构化、架构设计以及人工筛选的训练数据存在沉重且无法摆脱的依赖。本文认为,AI的真正风险并非来自超级智能,而是源于其固有局限性与人类轻信的结合所导致的滥用。
“人类依赖债”是解释现代AI为何未走上通往通用智能之路的核心概念框架。
“人类依赖债”包含三个关键依赖:
这种“债务”意味着AI系统并非在创造新的问题解决范式,而是在人类定义的边界内进行优化。
像GPT-4这样的模型取得的成功常被误解。Roitblat认为,它们之所以成功,是因为人类已经解决了核心的智力挑战,留给模型的只是执行梯度下降之类的“简单计算”。模型是一个强大的模式应用者,而非广义上的问题定义者或解决者。
当前的生成式AI将所有问题都视为语言模式学习问题。无论是编码、图像生成还是推理,其底层机制都是基于训练数据中的统计相关性来预测下一个标记(单词、像素块)。对于需要非语言的、抽象的或新颖的、且未包含在先前人类表达中的推理问题,这种方法具有固有的局限性。
AGI需要自主性——即设定自身目标、定义新问题以及在没有明确指令的情况下获取技能的能力。正如Lu等人(2024年)所指出的,LLM仅仅是遵循指令。它们缺乏自主掌握技能的内在驱动力或能力,而这正是通用智能的基石。
一个关键障碍是未能识别多种问题类型。有些问题,如“顿悟问题”(例如九点问题),无法通过增量优化或数据中的模式匹配来解决。它们需要对问题空间进行重构——这是当前基于梯度的学习系统所不具备的能力。
像ARC-AGI这样的基准测试不足以衡量通用性。通过测试并不能揭示它是如何通过的。模型可能使用了狭隘的、针对测试的技巧(例如记忆),也可能使用了通用的推理原则。基准测试衡量的是性能,而非能力的底层通用性。
本文强调了AI评估中的一个关键逻辑错误:肯定后件。其形式为:如果一个实体拥有AGI,它将通过测试T。该实体通过了测试T。因此,它拥有AGI。这是一个谬误。在任务上的成功并不能逻辑上意味着使用了通用智能,因为相同的输出可以由许多不同(且能力较弱)的机制产生。
该领域充斥着行业领袖(Altman,2025年;Leike & Sutskever,2023年)关于近期实现AGI的大胆预测,这些预测常被量化(例如“88%的能力”)。这些预测与“AI安全时钟”等象征性警告形成对比。
这些预测引发了重大关切。人工智能安全中心(2023年)的声明将AI风险等同于流行病和核战争。受美国国务院委托的《格拉德斯通报告》(Harris等人,2024年)警告了由实验室竞争驱动的“类似大规模杀伤性武器”的风险。这刺激了监管努力,例如加州提出的包含“紧急停止开关”授权的SB-1047法案,尽管该法案被否决。
当前模型的局限性可以通过其优化目标来部分理解。标准LLM的训练目标是最大化给定上下文 $x_{ $$\mathcal{L}_{LLM} = -\sum_{t} \log P(x_t | x_{ 其中 $\theta$ 是模型参数。这个目标迫使模型成为训练数据流形内插值的专家。然而,AGI需要外推和抽象——解决训练样本凸包之外的问题。“顿悟问题”障碍可以建模为在空间 $S$ 中寻找解 $s^*$,其中从问题 $p$ 到 $s^*$ 的路径需要一个无法从数据中学到的不可微变换 $T$: $$s^* = T(p), \quad \text{其中 } \nabla_\theta T \text{ 未定义或为零。}$$ 基于梯度的学习($\theta \leftarrow \theta - \eta \nabla_\theta \mathcal{L}$)无法发现这样的 $T$。这与经典AI中的论点一致,例如“符号接地问题”(Harnad,1990年),该问题质疑语义如何能从纯粹的句法操作中产生。 概念图:一个二维平面代表可能的问题和解决方案空间。密集的点云代表训练数据(人类提供的问题和解决方案)。当前的生成式AI模型擅长在这个点云内寻找解决方案(插值)。红色的“X”标记了一个“顿悟问题”——其解决方案位于点云之外。没有平滑的梯度路径从点云通向“X”;到达它需要在推理上进行不连续的飞跃,这是梯度下降无法实现的。这直观地代表了“人类依赖债”:模型被限制在人类提供的数据点云之内。图:插值与外推的鸿沟
为了超越有缺陷的基准测试,我们提出了一个定性评估矩阵。我们不再问“它通过测试了吗?”,而是问“其能力的本质是什么?”。对于任何任务T,从两个维度进行评估:
案例示例(ARC-AGI基准测试): 一个记忆特定ARC谜题模式解决方案的模型得分为(G=0,A=0)。一个学习适用于未见过的ARC谜题的通用视觉推理启发式方法的模型得分为(G=1,A=0)。一个不仅能解决ARC谜题,还能自行识别一类新的抽象推理谜题的系统将接近(G=2,A=2)。当前最先进的模型很可能在(G=0/1,A=0)象限内运行。真正的AGI需要在(G=2,A=2)水平上持续运行。这个框架使肯定后件的谬误变得明确:高分仅确认了性能,而非高G或A分数。
实现AGI需要范式转变,而不仅仅是扩展当前架构。
本分析最直接的“应用”在于政策和投资:法规应关注有偏见或不可靠系统带来的具体、近期的危害,而非推测性的AGI接管。投资应导向减少“人类依赖债”的基础研究,而不仅仅是扩大数据和参数规模。
核心洞见: AI行业正遭受严重的“输出短视症”。我们被流畅的文本和惊人的图像所迷惑,误将统计能力当作理解。Roitblat的“人类依赖债”是描述这种隐藏依赖的完美术语。它是服务器机房里的“大象”。每一次“突破”,细究之下,都是人类在数据筛选和问题框定方面智慧的证明,而非机器诞生的智能。真正的故事不是AI的强大,而是使其看起来强大的、巨大且常常隐形的、人类的劳动。
逻辑脉络: 该论点极其简单且逻辑严密。1)定义目标(AGI作为自主、通用的问题解决者)。2)审视工具(生成式AI作为人类数据上的模式匹配器)。3)识别不匹配(工具的核心操作依赖于人类预处理)。4)诊断错误(将工具的输出与目标的要求相混淆)。5)揭露系统性缺陷(无法区分记忆与理解的评估方法)。这不是哲学;这是基本的工程问责制。
优势与不足: 其优势在于其基础性批判。它通过质疑整个“AGI即将到来”叙事的前提,攻击了希望的架构。其不足之处或许在于,它没有完全参与关于“涌现”的反驳论点——即定性的新能力(如思维链推理)可能以我们尚未理解的方式在大规模下涌现。然而,本文正确地反驳道,涌现不是魔法;它仍然受限于训练目标 $\mathcal{L}_{LLM}$。你无法从一个没有自主性项的损失函数中涌现出自主性。
可操作的见解: 对于政策制定者: 忽略科幻式的炒作。监管眼前的事物:数据隐私、算法偏见、劳动力替代以及训练的环境成本。为一个连鞋带都不会系的模型设置“紧急停止开关”是安全作秀。对于投资者: 对任何估值建立在实现AGI基础上的公司保持高度怀疑。押注于用稳健的AI解决具体、有价值问题的公司,而非那些兜售AGI“画饼”的公司。对于研究人员: 停止追逐基准测试排行榜。开始设计旨在刻意打破模型理解假象的实验。追求最小化“人类依赖债”的架构。前进之路不在于更多的同类数据,而在于根本不同的学习原理。倒计时的终点不是AGI的到来,而是我们意识到自己一直在优化错误函数的那一刻。