2.1 定義與組成要素
人為負債包含三個關鍵依賴:
- 結構良好的問題:人類必須以AI能夠處理的方式來框定任務。
- 架構設計:神經網路結構(例如Transformer)是人類的發明。
- 精選的訓練數據:龐大的數據集是由人類收集、過濾和標註的。
此負債意味著AI系統並非在創造新的問題解決範式,而是在人類定義的邊界內進行優化。
本分析基於Herbert L. Roitblat的研究,對當前圍繞通用人工智慧即將到來的主流敘事提出了一種逆向且批判性的觀點。核心論點認為,當前及可預見的生成式人工智慧模型,包括大型語言模型,由於一種稱為「人為負債」的根本性限制,從根本上無法實現通用人工智慧。此負債指的是它們在問題結構化、架構設計和精選訓練數據方面,對人類輸入存在沉重且無法擺脫的依賴。本文主張,AI的真正風險並非來自超級智慧,而是來自其固有局限性與人類輕信的結合所導致的誤用。
人為負債是解釋為何現代人工智慧並未邁向通用智慧的核心概念框架。
人為負債包含三個關鍵依賴:
此負債意味著AI系統並非在創造新的問題解決範式,而是在人類定義的邊界內進行優化。
像GPT-4這樣的模型所取得的成功常被誤解。Roitblat認為它們之所以成功,是因為人類已經解決了核心的智力挑戰,留下模型來執行「簡單的計算」,例如梯度下降。該模型是一個強大的模式應用者,而非廣義上的問題定義者或解決者。
當前的生成式AI將每個問題都視為一個語言模式學習問題。無論是編碼、圖像生成還是推理,其底層機制都是根據訓練數據中的統計相關性來預測下一個詞元(單詞、像素塊)。對於需要非語言、抽象或新穎推理的問題,若這些推理未包含在先前的人類表達中,這種方法從根本上就存在限制。
通用人工智慧需要自主性——即能夠設定自身目標、定義新問題,並在沒有明確指令的情況下獲取技能的能力。正如Lu等人(2024年)所指出的,大型語言模型僅僅是遵循指令。它們缺乏自主掌握技能的內在驅動力或能力,而這正是通用智慧的基石。
一個關鍵障礙是未能識別多種問題類型。有些問題,例如「頓悟問題」(如九點問題),無法透過數據的增量優化或模式匹配來解決。它們需要對問題空間進行重構——這是當前基於梯度的學習系統所缺乏的能力。
像ARC-AGI這樣的基準測試不足以衡量通用性。通過測試並未揭示它是如何通過的。模型可能使用了狹隘的、針對測試的技巧(例如記憶)或通用的推理原則。基準測試衡量的是表現,而非能力的底層通用性。
本文強調了AI評估中的一個關鍵邏輯錯誤:肯定後件。其形式為:如果一個實體擁有通用人工智慧,它將通過測試T。該實體通過了測試T。因此,它擁有通用人工智慧。這是一個謬誤。在任務上的成功,邏輯上並不意味著使用了通用智慧,因為相同的輸出可以由許多不同(且能力較弱)的機制產生。
這個領域充滿了產業領袖(Altman, 2025; Leike & Sutskever, 2023)對近期實現通用人工智慧的大膽預測,通常以量化方式呈現(例如「88%的能力」)。這些預測與像「AI安全時鐘」這樣的象徵性警告形成對比。
這些預測引發了重大關切。人工智慧安全中心(2023年)的聲明將AI風險等同於流行病和核戰風險。由美國國務院委託的Gladstone報告(Harris等人,2024年)警告,實驗室競爭可能驅動「類似大規模殺傷性武器」的風險。這促使了監管努力,例如加州提出的帶有「緊急停止開關」授權的SB-1047法案,儘管該法案最終被否決。
當前模型的局限性可以部分透過其優化目標來理解。標準的大型語言模型被訓練為在給定上下文 $x_{ $$\mathcal{L}_{LLM} = -\sum_{t} \log P(x_t | x_{ 其中 $\theta$ 是模型參數。這個目標迫使模型成為訓練數據流形內插值的專家。然而,通用人工智慧需要外推和抽象——解決訓練樣本凸包之外的問題。「頓悟問題」障礙可以建模為在空間 $S$ 中找到解 $s^*$,其中從問題 $p$ 到 $s^*$ 的路徑需要一個無法從數據中學習的非可微分轉換 $T$: $$s^* = T(p), \quad \text{其中 } \nabla_\theta T \text{ 未定義或為零。}$$ 基於梯度的學習($\theta \leftarrow \theta - \eta \nabla_\theta \mathcal{L}$)無法發現這樣的 $T$。這與古典AI的論點一致,例如「符號接地問題」(Harnad, 1990),該問題質疑語義如何能從純粹的語法操作中產生。 概念圖: 一個二維平面代表可能的問題與解決方案空間。密集的點雲代表訓練數據(人類提供的問題與解決方案)。當前的生成式AI模型擅長在這個點雲內尋找解決方案(插值)。紅色的「X」標記了一個「頓悟問題」——其解決方案位於點雲之外。沒有平滑的梯度路徑從點雲通向「X」;到達它需要推理上的不連續跳躍,這是梯度下降法無法實現的。這直觀地代表了人為負債:模型被限制在人類提供的數據點雲之內。圖表:插值與外推的差距
為了超越有缺陷的基準測試,我們提出一個定性評估矩陣。我們不問「它通過測試了嗎?」,而是問「其能力的本質是什麼?」。對於任何任務T,沿兩個軸進行評估:
案例示例: 一個記憶特定ARC謎題模式解決方案的模型得分為(G=0, A=0)。一個學習了適用於未見過的ARC謎題的通用視覺推理啟發式方法的模型得分為(G=1, A=0)。一個不僅能解決ARC謎題,還能自行識別一類新的抽象推理謎題的系統將接近(G=2, A=2)。當前最先進的模型很可能在(G=0/1, A=0)象限運作。真正的通用人工智慧需要在(G=2, A=2)水平上持續運作。這個框架使肯定後件的謬誤變得明確:高分數僅確認了表現,而非高的G或A分數。
實現通用人工智慧將需要範式轉移,而不僅僅是擴展當前架構。
本分析最直接的「應用」在於政策與投資:監管應聚焦於有偏見或不可靠系統所帶來的具體、近期的危害,而非臆測的通用人工智慧接管。投資應導向於減少人為負債的基礎研究,而不僅僅是擴展數據和參數。
核心洞見: AI產業正遭受嚴重的「輸出短視症」。我們被流暢的文本和驚人的圖像所迷惑,誤將統計能力當作理解。Roitblat的「人為負債」是描述這種隱藏依賴性的完美術語。它是伺服器機房裡的大象。每一次「突破」,仔細審視後,都是人類在數據策展和問題框架方面創造力的證明,而非機器誕生的智慧。真正的故事不是AI的力量,而是使其看起來強大的、巨大且往往隱形的人類勞動。
邏輯脈絡: 這個論點極具破壞性且邏輯嚴密。1) 定義目標(通用人工智慧作為自主、通用的問題解決者)。2) 檢視工具(生成式AI作為人類數據上的模式匹配器)。3) 識別不匹配(工具的核心運作依賴於人類的預處理)。4) 診斷錯誤(將工具的輸出與目標的要求混淆)。5) 揭露系統性缺陷(無法區分記憶與理解的評估方法)。這不是哲學,而是基本的工程問責。
優點與缺陷: 其優點在於其基礎性的批判。它透過質疑整個「通用人工智慧即將到來」敘事的前提,攻擊了希望的架構本身。其缺陷或許在於,它沒有完全參與關於湧現的反駁論點——即質性上新的能力(如思維鏈推理)可能以我們尚未理解的方式在大規模下湧現。然而,本文正確地反駁道,湧現並非魔法;它仍然受到訓練目標 $\mathcal{L}_{LLM}$ 的限制。你無法從一個沒有自主性項目的損失函數中湧現出自主性。
可操作的見解: 對於政策制定者: 忽略科幻式的炒作。監管眼前的事物:數據隱私、演算法偏見、勞動力替代,以及訓練的環境成本。為一個連鞋帶都不會繫的模型設置「緊急停止開關」是安全作秀。對於投資者: 對任何估值建立在實現通用人工智慧之上的公司保持高度懷疑。押注於用穩健的AI解決具體、有價值問題的公司,而非那些販賣通用人工智慧空頭支票的公司。對於研究者: 停止追逐基準測試排行榜。開始設計刻意嘗試打破模型理解幻覺的實驗。追求最小化人為負債的架構。前進之路不在於更多的相同數據,而在於根本不同的學習原則。時鐘並非在倒數通用人工智慧的到來;而是在倒數我們意識到自己一直在優化錯誤函數的那一刻。