2.1 定義與組成部分
人為負債包含三個關鍵依賴:
- 結構良好嘅問題:人類必須以人工智能能夠處理嘅方式來構建任務。
- 架構設計:神經網絡結構係人類嘅發明。
- 精選訓練數據:龐大嘅數據集由人類收集、篩選同標記。
呢筆負債意味住人工智能系統並唔係創造新嘅問題解決範式,而係喺人類定義嘅邊界內進行優化。
呢份分析基於Herbert L. Roitblat嘅工作,對圍繞通用人工智能即將來臨嘅主流敘事提出一種逆向同批判性觀點。核心論點指出,現時同可預見嘅生成式人工智能模型,包括大型語言模型,由於一種稱為「人為負債」嘅根本限制,基本上無法達成通用人工智能。呢筆負債指嘅係佢哋喺問題結構、架構設計同精選訓練數據方面,對人類輸入嘅沉重且無法逃避嘅依賴。本文認為,人工智能嘅真正風險並非來自超級智能,而係來自對其固有局限嘅濫用,再加上人類嘅輕信。
人為負債係解釋點解現代人工智能並唔係邁向通用智能嘅核心概念框架。
人為負債包含三個關鍵依賴:
呢筆負債意味住人工智能系統並唔係創造新嘅問題解決範式,而係喺人類定義嘅邊界內進行優化。
像GPT-4呢類模型嘅成功經常被誤解。Roitblat認為佢哋之所以成功,係因為人類已經解決咗核心嘅智力挑戰,留畀模型嘅只係執行像梯度下降呢類「簡單計算」。模型係一個強大嘅模式應用者,而唔係廣義上嘅問題定義者或解決者。
現時嘅生成式人工智能將每一個問題都視為一個語言模式學習問題。無論係編程、圖像生成定係推理,底層機制都係基於訓練數據中嘅統計相關性來預測下一個詞元。對於需要非語言、抽象或新穎推理嘅問題,呢種方法本質上係有限嘅,呢啲推理並未包含喺先前嘅人類表達中。
通用人工智能需要自主性——即係設定自己目標、定義新問題,以及喺冇明確指令下獲取技能嘅能力。正如Lu等人指出,大型語言模型只係跟從指令。佢哋缺乏自主掌握技能嘅內在驅動力或能力,而呢個正係通用智能嘅基石。
一個關鍵障礙係未能識別多種問題類型。某啲問題,例如「頓悟問題」,無法通過數據嘅增量優化或模式匹配來解決。佢哋需要對問題空間進行重構——呢種能力喺現時基於梯度嘅學習系統中係缺乏嘅。
像ARC-AGI呢類基準測試不足以衡量通用性。通過測試並唔揭示點樣通過嘅。一個模型可能使用一個狹窄、針對測試嘅技巧,或者一個通用嘅推理原則。基準測試衡量嘅係表現,而唔係能力嘅底層通用性。
本文強調咗人工智能評估中一個關鍵嘅邏輯錯誤:肯定後件。形式係:如果一個實體擁有通用人工智能,佢將會通過測試T。該實體通過咗測試T。因此,佢擁有通用人工智能。呢個係一個謬誤。喺任務上成功並唔邏輯上意味住使用咗通用智能,因為相同嘅輸出可以由許多唔同嘅機制產生。
呢個領域充斥住行業領袖對短期內實現通用人工智能嘅大膽預測,通常以量化形式呈現。呢啲預測同像「人工智能安全時鐘」呢類象徵性警告形成對比。
預測引發咗重大關注。人工智能安全中心嘅聲明將人工智能風險等同於流行病同核戰爭。由美國國務院委託嘅Gladstone報告警告由實驗室競爭驅動嘅「大規模殺傷性武器級別」風險。呢啲都促使監管努力,例如加州提出嘅SB-1047法案及其「緊急停止」授權,儘管該法案被否決。
現時模型嘅局限可以部分透過其優化目標來理解。一個標準嘅大型語言模型被訓練用於最大化給定上下文時下一個詞元嘅概率:
$$\mathcal{L}_{LLM} = -\sum_{t} \log P(x_t | x_{ 其中$\theta$係模型參數。呢個目標迫使模型成為訓練數據流形內插值嘅專家。然而,通用人工智能需要外推同抽象——解決訓練樣本凸包之外嘅問題。「頓悟問題」障礙可以被建模為喺空間$S$中尋找一個解$s^*$,其中從問題$p$到$s^*$嘅路徑需要一個無法從數據中學習嘅不可微分變換$T$: $$s^* = T(p), \quad \text{where } \nabla_\theta T \text{ is undefined or zero.}$$ 基於梯度嘅學習無法發現呢種$T$。呢個同經典人工智能中嘅論點一致,例如「符號接地問題」,該問題質疑語義如何能從純粹嘅句法操作中產生。 概念圖:一個二維平面代表可能問題同解決方案嘅空間。一團密集嘅點代表訓練數據。現時嘅生成式人工智能模型擅長喺呢團雲內尋找解決方案。紅色嘅「X」標記一個「頓悟問題」——佢嘅解決方案位於雲團之外。冇平滑嘅梯度路徑從雲團通向「X」;到達佢需要推理上嘅不連續飛躍,而梯度下降無法實現呢一點。呢個視覺化咗人為負債:模型被限制喺人類提供嘅數據雲團內。圖表:插值與外推之間嘅差距
為咗超越有缺陷嘅基準測試,我哋提出一個定性評估矩陣。唔係問「佢通過咗測試未?」,而係問「佢能力嘅本質係乜嘢?」對於任何任務T,沿兩個軸進行評估:
案例示例:一個記住特定ARC謎題模式解決方案嘅模型得分。一個學習咗適用於未見過ARC謎題嘅通用視覺推理啟發式方法嘅模型得分。一個唔單止解決ARC謎題,仲能自己識別一類新嘅抽象推理謎題嘅系統,將會接近。現時最先進嘅模型很可能喺象限內運作。真正嘅通用人工智能需要喺象限內持續運作。呢個框架令肯定後件嘅謬誤變得明確:高分數只確認表現,而唔係高G或A分數。
實現通用人工智能需要範式轉變,而不僅僅係擴展現有架構。
呢份分析最直接嘅「應用」在於政策同投資:監管應該聚焦於有偏見或不可靠系統所造成嘅具體、短期危害,而非投機性嘅通用人工智能接管。投資應該指向減少人為負債嘅基礎研究,而不僅僅係擴展數據同參數。
核心洞見:人工智能行業正遭受嚴重嘅「輸出短視症」。我哋被流暢嘅文本同驚人嘅圖像所迷惑,誤將統計能力當作理解。Roitblat嘅「人為負債」係描述呢種隱藏依賴嘅完美術語。佢係伺服器房裡嘅大象。每一個「突破」,仔細審視下,都係人類喺數據策展同問題構建方面智慧嘅證明,而非機器誕生嘅智能。真正嘅故事唔係人工智能嘅力量;而係令佢睇落強大嘅、巨大且經常隱形嘅人類勞動。
邏輯流程:論證極具破壞性且邏輯嚴密。1) 定義目標。2) 檢視工具。3) 識別不匹配。4) 診斷錯誤。5) 揭露系統性缺陷。呢個唔係哲學;係基本嘅工程問責。
優點與缺陷:其優點在於其基礎性批判。佢通過質疑整個「通用人工智能即將來臨」敘事嘅前提,攻擊咗希望嘅架構本身。其缺陷或許在於,佢並未完全參與關於湧現性嘅反駁論點——即係新能力可能以我哋尚未理解嘅方式,喺規模上湧現嘅可能性。然而,本文正確地反駁話,湧現並非魔法;佢仍然受訓練目標所限制。你無法從一個冇包含自主性項嘅損失函數中湧現出自主性。
可行建議:對於政策制定者:忽略科幻式炒作。監管眼前嘅事物:數據私隱、算法偏見、勞動力替代,以及訓練嘅環境成本。為一個連自己鞋帶都唔識綁嘅模型設置「緊急停止」係安全劇場。對於投資者:對任何估值建基於實現通用人工智能嘅公司保持高度懷疑。押注於用穩健人工智能解決具體、有價值問題嘅公司,而非銷售通用人工智能虛幻產品嘅公司。對於研究人員:停止追逐基準測試排行榜。開始設計刻意嘗試打破你模型理解幻覺嘅實驗。追求最小化人為負債嘅架構。前進之路並非通過更多相同嘅數據,而係通過根本上唔同嘅學習原則。時鐘並非倒數通用人工智能嘅來臨;而係倒數我哋意識到我哋一直喺度優化錯誤函數嘅時刻。