1. परिचय एवं मुख्य तर्क

यह विश्लेषण हर्बर्ट एल. रॉयटब्लैट के कार्य पर आधारित है, और सामान्य बुद्धिमत्ता की आसन्न उपलब्धि के बारे में प्रचलित मुख्यधारा के आख्यान के विपरीत एवं आलोचनात्मक दृष्टिकोण प्रस्तुत करता है। इसका मुख्य तर्क यह है कि वर्तमान एवं निकट भविष्य के जनरेटिव एआई मॉडल, जिनमें बड़े भाषा मॉडल शामिल हैं, एक मौलिक बाधा के कारण, जिसे"Human Dependency Debt"कहा जाता है, मूलतः एजीआई प्राप्त करने में असमर्थ हैं। यह "ऋण" समस्याओं के संरचनाकरण, वास्तुकला डिजाइन और मानव-चयनित प्रशिक्षण डेटा पर उनकी भारी एवं अपरिहार्य निर्भरता को संदर्भित करता है। यह लेख तर्क देता है कि एआई का वास्तविक जोखिम सुपरइंटेलिजेंस से नहीं, बल्कि इसकी अंतर्निहित सीमाओं और मानवीय विश्वसनीयता के संयोजन से उत्पन्न दुरुपयोग से है।

2. "मानव निर्भरता ऋण" की अवधारणा

"Human Dependency Debt" एक मौलिक संकल्पनात्मक ढांचा है जो यह समझाने के लिए है कि आधुनिक एआई सामान्य बुद्धिमत्ता के मार्ग पर क्यों नहीं बढ़ रहा है।

2.1 परिभाषा एवं संघटक तत्व

"मानव निर्भरता ऋण" में तीन प्रमुख निर्भरताएँ शामिल हैं:

  • सुसंरचित समस्या:मनुष्यों को कार्य को ऐसे ढंग से तैयार करना होगा जिसे AI संसाधित कर सके।
  • आर्किटेक्चर डिज़ाइन:न्यूरल नेटवर्क आर्किटेक्चर (जैसे Transformer) मनुष्यों द्वारा आविष्कृत हैं।
  • मानव-चयनित प्रशिक्षण डेटा:विशाल डेटासेट मनुष्यों द्वारा एकत्रित, फ़िल्टर और लेबल किए गए हैं।

यह "ऋण" इस बात का संकेत है कि AI सिस्टम समस्या-समाधान के नए प्रतिमान नहीं बना रहे हैं, बल्कि मानव-परिभाषित सीमाओं के भीतर अनुकूलन कर रहे हैं।

2.2 "सहारा" के रूप में मानवीय निवेश

GPT-4 जैसे मॉडलों की सफलता को अक्सर गलत समझा जाता है। Roitblat का मानना है कि वे सफल इसलिए हैं क्योंकि मनुष्यों ने मूल बौद्धिक चुनौती को हल कर दिया है, और मॉडल के लिए ग्रेडिएंट डिसेंट जैसी "सरल गणना" करना बचा है। मॉडल एक शक्तिशाली पैटर्न लागू करने वाला है, न कि व्यापक अर्थों में समस्या परिभाषित करने वाला या समाधानकर्ता।

3. AGI प्राप्ति में मूलभूत बाधाएँ

3.1 भाषाई पैटर्न अधिगम की सीमाएँ

वर्तमान जनरेटिव AI सभी समस्याओं कोभाषाई पैटर्न सीखने की समस्याके रूप में देखता है। चाहे कोडिंग हो, छवि निर्माण हो या तर्क, इसका अंतर्निहित तंत्र प्रशिक्षण डेटा में सांख्यिकीय सहसंबंधों के आधार पर अगले टोकन (शब्द, पिक्सेल ब्लॉक) की भविष्यवाणी करना है। ऐसी तर्क समस्याओं के लिए जिनमें गैर-भाषाई, अमूर्त या नवीन तर्क की आवश्यकता होती है, और जो पूर्व मानव अभिव्यक्ति में शामिल नहीं हैं, इस पद्धति की स्वाभाविक सीमाएँ हैं।

3.2 वास्तविक स्वायत्तता का अभाव

AGI को स्वायत्तता की आवश्यकता होती है - यानी अपने स्वयं के लक्ष्य निर्धारित करने, नई समस्याओं को परिभाषित करने और स्पष्ट निर्देशों के बिना कौशल प्राप्त करने की क्षमता। जैसा कि Lu et al. (2024) ने इंगित किया है, LLM केवल निर्देशों का पालन करते हैं। उनमें कौशल स्वायत्त रूप से हासिल करने की आंतरिक प्रेरणा या क्षमता का अभाव है, जो सामान्य बुद्धिमत्ता का आधार है।

3.3 प्रश्न प्रकार विज्ञान की चुनौती

एक प्रमुख बाधा विभिन्न प्रकार की समस्याओं की पहचान करने में विफलता है। कुछ समस्याएं, जैसे "अंतर्दृष्टि समस्याएं" (उदाहरण के लिए, नौ-बिंदु समस्या), वृद्धिशील अनुकूलन या डेटा में पैटर्न मिलान के माध्यम से हल नहीं की जा सकतीं। उन्हें समस्या स्थान के पुनर्गठन की आवश्यकता होती है - एक ऐसी क्षमता जो वर्तमान ग्रेडिएंट-आधारित शिक्षण प्रणालियों में नहीं है।

4. दोषपूर्ण मूल्यांकन प्रतिमान

4.1 बेंचमार्क परीक्षण की कमियाँ

ARC-AGI जैसे बेंचमार्क सामान्यीकरण को मापने के लिए पर्याप्त नहीं हैं। परीक्षण उत्तीर्ण करना यह प्रकट नहीं करता कि यहकैसेउत्तीर्ण हुआ। मॉडल ने संकीर्ण, परीक्षण-विशिष्ट तरकीबों (जैसे याद रखना) का उपयोग किया हो सकता है, या सामान्य तर्क सिद्धांतों का। बेंचमार्क प्रदर्शन को मापते हैं, न कि क्षमता के अंतर्निहित सामान्यीकरण को।

4.2 पश्चवर्ती की पुष्टि करने की भ्रांति

यह लेख AI मूल्यांकन में एक महत्वपूर्ण तार्किक त्रुटि पर प्रकाश डालता है:कंसीक्वेंट की पुष्टि. Its form is: If an entity possesses AGI, it will pass test T. The entity passed test T. Therefore, it possesses AGI. This is a fallacy. Success on a task does not logically imply the use of general intelligence, as the same output can be produced by many different (and less capable) mechanisms.

5. AGI प्रचार और वास्तविकता

Key Data in the AGI Debate

  • 88% – Estimated percentage of necessary AGI capabilities already achieved (Thompson, 2025).
  • 33,000+ – Number of signatures on the Future of Life Institute open letter calling for a pause on LLM development (2023).
  • 2025 – पेरिस एआई एक्शन समिट के आयोजन का वर्ष।

5.1 पूर्वानुमान और दावे

该领域充斥着行业领袖(Altman,2025年;Leike & Sutskever,2023年)关于近期实现AGI的大胆预测,这些预测常被量化(例如“88%的能力”)。这些预测与“AI安全时钟”等象征性警告形成对比。

5.2 बढ़ती चिंताएँ और नियामक प्रतिक्रिया

इन पूर्वानुमानों ने गंभीर चिंताएं पैदा की हैं। सेंटर फॉर एआई सेफ्टी (2023) के एक बयान ने एआई जोखिमों की तुलना महामारी और परमाणु युद्ध से की है। यूएस स्टेट डिपार्टमेंट द्वारा कमीशन की गई ग्लैडस्टोन रिपोर्ट (Harris et al., 2024) ने प्रयोगशालाओं की प्रतिस्पर्धा से प्रेरित "वेपन्स ऑफ मास डिस्ट्रक्शन जैसे" जोखिमों की चेतावनी दी है। इसने नियामक प्रयासों को प्रेरित किया है, जैसे कैलिफोर्निया में प्रस्तावित एसबी-1047 विधेयक जिसमें "इमरजेंसी स्टॉप स्विच" प्राधिकरण शामिल था, हालांकि इसे खारिज कर दिया गया था।

6. Technical Analysis and Mathematical Framework

वर्तमान मॉडल की सीमाओं को आंशिक रूप से उसके अनुकूलन लक्ष्य के माध्यम से समझा जा सकता है। एक मानक LLM का प्रशिक्षण लक्ष्य दिए गए संदर्भ $x_{

$$\mathcal{L}_{LLM} = -\sum_{t} \log P(x_t | x_{

जहाँ $\theta$ मॉडल पैरामीटर हैं। यह लक्ष्य मॉडल को प्रशिक्षण डेटा के मैनिफोल्ड के भीतरइंटरपोलेशनका विशेषज्ञ बनने के लिए बाध्य करता है। हालाँकि, AGI कोएक्सट्रपोलेशनएब्स्ट्रक्शन——प्रशिक्षण नमूनों के उत्तल हल से बाहर की समस्याओं को हल करने की आवश्यकता होती है। "अहा! क्षण" समस्या की बाधा को स्पेस $S$ में एक समाधान $s^*$ खोजने के रूप में मॉडल किया जा सकता है, जहाँ समस्या $p$ से $s^*$ तक के पथ के लिए एक गैर-अवकलनीय परिवर्तन $T$ की आवश्यकता होती है जिसे डेटा से सीखा नहीं जा सकता:

$$s^* = T(p), \quad \text{जहाँ } \nabla_\theta T \text{ अपरिभाषित या शून्य है।}$$

ग्रेडिएंट-आधारित सीख ($\theta \leftarrow \theta - \eta \nabla_\theta \mathcal{L}$) ऐसे $T$ की खोज नहीं कर सकता। यह शास्त्रीय AI में तर्कों के अनुरूप है, जैसे "प्रतीक आधार समस्या" (Harnad, 1990), जो पूछती है कि शुद्ध वाक्यात्मक संक्रियाओं से अर्थविज्ञान कैसे उत्पन्न हो सकता है।

चित्र: अंतर्वेशन और बहिर्वेशन के बीच की खाई

संकल्पना मानचित्र:एक द्वि-आयामी तल संभावित समस्याओं और समाधानों के स्थान का प्रतिनिधित्व करता है। सघन बिंदु बादल प्रशिक्षण डेटा (मानव-प्रदत्त समस्याएँ और समाधान) का प्रतिनिधित्व करता है। वर्तमान जनरेटिव AI मॉडल इस बिंदु बादल के भीतर समाधान ढूंढने (अंतर्वेशन) में निपुण हैं। लाल "X" एक "सूझ समस्या" को चिह्नित करता है - जिसका समाधान बिंदु बादल के बाहर स्थित है। बिंदु बादल से "X" तक जाने के लिए कोई सहज ग्रेडिएंट पथ नहीं है; इसे प्राप्त करने के लिए तर्क पर एक असंतत छलांग की आवश्यकता है, जो ग्रेडिएंट डिसेंट द्वारा प्राप्त नहीं की जा सकती। यह "मानव निर्भरता ऋण" का सहज प्रतिनिधित्व करता है: मॉडल मानव-प्रदत्त डेटा बिंदु बादल के भीतर ही सीमित है।

7. Analytical Framework: AGI Capability Matrix

दोषपूर्ण बेंचमार्क से आगे बढ़ने के लिए, हम एक गुणात्मक मूल्यांकन मैट्रिक्स प्रस्तावित करते हैं। हम अब यह नहीं पूछते, "क्या इसने परीक्षण पास किया?", बल्कि यह पूछते हैं, "इसकी क्षमता का स्वरूप क्या है?"। किसी भी कार्य T के लिए, दो आयामों से मूल्यांकन किया जाता है:

  1. विधि की सार्वभौमिकता: क्या समाधान विधि T (G=0) के लिए विशिष्ट है, कार्यों की एक श्रेणी (G=1) पर लागू होती है, या डोमेन-स्वतंत्र (G=2) है?
  2. समस्या निर्माण की स्वायत्तता: क्या समस्या पूरी तरह से मानव-परिभाषित (A=0) है, आंशिक रूप से सिस्टम द्वारा परिष्कृत (A=1) है, या सिस्टम द्वारा स्व-खोजी/परिभाषित (A=2) है?

केस उदाहरण (ARC-AGI बेंचमार्क): एक मॉडल जो विशिष्ट ARC पहेली पैटर्न समाधानों को याद रखता है, उसे (G=0, A=0) स्कोर मिलता है। एक मॉडल जो अनदेखी ARC पहेलियों पर लागू होने वाले सामान्य दृश्य तर्क ह्यूरिस्टिक्स सीखता है, उसे (G=1, A=0) स्कोर मिलता है। एक ऐसी प्रणाली जो न केवल ARC पहेलियों को हल कर सकती है, बल्कि अमूर्त तर्क पहेलियों की एक नई श्रेणी की स्वतंत्र रूप से पहचान भी कर सकती है, (G=2, A=2) के करीब पहुंचेगी। वर्तमान अत्याधुनिक मॉडल संभवतः (G=0/1, A=0) चतुर्थांश में संचालित होते हैं। वास्तविक AGI को (G=2, A=2) स्तर पर लगातार संचालित होने की आवश्यकता है। यह ढांचा अफ़र्मिंग द कॉन्सिक्वेंट के भ्रम को स्पष्ट करता है: उच्च स्कोर केवल प्रदर्शन की पुष्टि करता है, न कि उच्च G या A स्कोर की।

8. Future Directions and Research Outlook

AGI की प्राप्ति के लिए केवल मौजूदा आर्किटेक्चर के विस्तार से अधिक, एक प्रतिमान परिवर्तन की आवश्यकता है।

  • विश्व मॉडल और अवतारित संज्ञान: अनुसंधान को निष्क्रिय पाठ पूर्वानुमान से आगे बढ़कर, इंटरैक्शन के माध्यम से आंतरिक विश्व मॉडल के निर्माण करने वाले सक्रिय एजेंटों की ओर मुड़ना चाहिए, जैसा कि रोबोटिक्स और सिमुलेशन क्षेत्र में प्रगति (जैसे DeepMind का SIMA) से पता चलता है। यह मानव-क्यूरेटेड भाषा डेटा पर निर्भरता कम करता है।
  • तंत्रिका-प्रतीकात्मक संकर प्रणालियाँ: तंत्रिका नेटवर्क की पैटर्न पहचान क्षमताओं को प्रतीकात्मक एआई की स्पष्ट, संयोजन योग्य तर्क क्षमता के साथ मिलाना (जैसा कि MIT-IBM Watson लैब द्वारा खोजा गया), "अहा! क्षण समस्या" की बाधा को हल कर सकता है।
  • स्व-निर्देशित अधिगम लक्ष्य: आंतरिक प्रेरणा एल्गोरिदम विकसित करना जो प्रणालियों को मानव-परिभाषित हानि फलनों से परे, अपने स्वयं के अधिगम लक्ष्य उत्पन्न करने में सक्षम बनाए। यह एआई अनुसंधान में एक उभरता हुआ क्षेत्र है।
  • नई मूल्यांकन विज्ञान: सामान्यता (G) और स्वायत्तता (A) का स्पष्ट परीक्षण करने वाले बेंचमार्क बनाना, शायद खुले-समाप्त, स्वचालित रूप से उत्पन्न चुनौती सूट के माध्यम से मेटा-लर्निंग और समस्या निर्माण कौशल की जांच कर सकता है।

इस विश्लेषण का सबसे सीधा "अनुप्रयोग" नीति और निवेश में है: विनियमों को पक्षपातपूर्ण या अविश्वसनीय प्रणालियों से होने वाले ठोस, निकट-अवधि के नुकसान पर ध्यान केंद्रित करना चाहिए, न कि अटकलबाजी वाले AGI अधिग्रहण पर। निवेश को "मानव निर्भरता ऋण" को कम करने वाले मूलभूत शोध की ओर निर्देशित किया जाना चाहिए, न कि केवल डेटा और पैरामीटर पैमाने का विस्तार करने की ओर।

9. Critical Analysis Perspective

मुख्य अंतर्दृष्टि: AI उद्योग गंभीर "आउटपुट निकटदृष्टिता" से पीड़ित है। हम सहज पाठ और आश्चर्यजनक छवियों से मोहित होकर, सांख्यिकीय क्षमता को समझ समझने की भूल कर बैठते हैं। रोइटब्लैट का "मानव निर्भरता ऋण" इस छिपी हुई निर्भरता का वर्णन करने के लिए एक उत्तम शब्द है। यह सर्वर कक्ष में मौजूद "हाथी" है। हर एक "सफलता", करीब से देखने पर, मशीन-जनित बुद्धिमत्ता के बजाय, डेटा संकलन और समस्या परिभाषा में मानवीय बुद्धि का प्रमाण है। असली कहानी AI की शक्ति की नहीं, बल्कि उसे शक्तिशाली दिखने में मदद करने वाले, विशाल और अक्सर अदृश्य, मानव श्रम की है।

तार्किक प्रवाह: यह तर्क अत्यंत सरल और तार्किक रूप से कसा हुआ है। 1) लक्ष्य को परिभाषित करें (स्वायत्त, सामान्य समस्या-समाधानकर्ता के रूप में AGI)। 2) उपकरणों का निरीक्षण करें (मानव डेटा पर पैटर्न मिलानकर्ता के रूप में जेनरेटिव AI)। 3) बेमेल को पहचानें (उपकरण का मूल संचालन मानव पूर्व-प्रसंस्करण पर निर्भर करता है)। 4) त्रुटि का निदान करें (उपकरण के आउटपुट को लक्ष्य की आवश्यकताओं के साथ भ्रमित करना)। 5) प्रणालीगत दोष को उजागर करें (स्मृति और समझ के बीच अंतर करने में असमर्थ मूल्यांकन विधियाँ)। यह दर्शन नहीं है; यह मूलभूत इंजीनियरिंग जवाबदेही है।

शक्तियाँ और सीमाएँ: इसकी ताकत इसकी मौलिक आलोचना में निहित है। यह "AGI आ रहा है" की संपूर्ण कथा की पूर्वधारणाओं पर सवाल उठाकर आशा की संरचना पर हमला करता है। इसकी कमी शायद यह है कि यह "उद्भव" के प्रति-तर्क में पूरी तरह से शामिल नहीं होता - अर्थात्, गुणात्मक नई क्षमताएँ (जैसे चेन-ऑफ-थॉट तर्क) बड़े पैमाने पर ऐसे तरीक़ों से उभर सकती हैं जिन्हें हम अभी तक नहीं समझते। हालाँकि, यह पेपर सही ढंग से खंडन करता है कि उद्भव जादू नहीं है; यह अभी भी प्रशिक्षण लक्ष्य $\mathcal{L}_{LLM}$ द्वारा सीमित है। आप स्वायत्तता को एक ऐसे नुकसान फ़ंक्शन से नहीं उभार सकते जिसमें स्वायत्तता का कोई पद न हो।

क्रियान्वयन योग्य अंतर्दृष्टि: के लिएनीति निर्माता: विज्ञान-कथा शैली की हाइप को नज़रअंदाज़ करें। वर्तमान चीज़ों को विनियमित करें: डेटा गोपनीयता, एल्गोरिदम पूर्वाग्रह, श्रमिक प्रतिस्थापन और प्रशिक्षण की पर्यावरणीय लागत। एक ऐसे मॉडल के लिए "आपातकालीन स्टॉप स्विच" सेट करना जो अपने जूते के फीते भी नहीं बाँध सकता, सुरक्षा का दिखावा है। के लिएनिवेशक: ऐसी किसी भी कंपनी पर अत्यधिक संदेह रखें जिसका मूल्यांकन AGI प्राप्ति पर आधारित हो। ठोस, मूल्यवान समस्याओं को हल करने के लिए मजबूत AI का उपयोग करने वाली कंपनियों पर दांव लगाएं, न कि उन पर जो AGI के "खोखले वादे" बेच रही हों। के लिएशोधकर्ता: बेंचमार्क लीडरबोर्ड का पीछा करना बंद करें। ऐसे प्रयोगों को डिज़ाइन करना शुरू करें जो मॉडल की समझ के भ्रम को जानबूझकर तोड़ने के लिए तैयार हों। "मानव निर्भरता ऋण" को न्यूनतम करने वाली संरचनाओं का पीछा करें। आगे का रास्ता अधिक समान डेटा में नहीं, बल्कि मौलिक रूप से भिन्न सीखने के सिद्धांतों में है। उलटी गिनती का अंत AGI के आगमन पर नहीं, बल्कि उस क्षण पर है जब हमें एहसास होता है कि हम गलत फ़ंक्शन को अनुकूलित करते रहे हैं।

10. संदर्भ सूची

  1. Roitblat, H. L. (स्रोत PDF). सामान्य कृत्रिम बुद्धिमत्ता प्राप्त करने के बारे में जानने योग्य कुछ बातें।
  2. Chollet, F. (2019). ऑन द मेज़रमेंट ऑफ इंटेलिजेंस. arXiv प्रीप्रिंट arXiv:1911.01547.
  3. Lu, Y., et al. (2024). [एलएलएम इंस्ट्रक्शन फॉलोइंग पर संदर्भ].
  4. Harris, J., Harris, T., & Beal, B. (2024). 格拉德斯通报告. अमेरिकी विदेश विभाग.
  5. सेंटर फॉर एआई सेफ्टी. (2023). एआई जोखिम पर बयान. https://www.safe.ai/work/statement-on-ai-risk
  6. फ्यूचर ऑफ लाइफ इंस्टीट्यूट. (2023). विशाल एआई प्रयोगों पर विराम: एक खुला पत्र. https://futureoflife.org/open-letter/pause-giant-ai-experiments/
  7. Harnad, S. (1990). द सिम्बॉल ग्राउंडिंग प्रॉब्लम. Physica D: नॉनलाइनियर फेनोमेना, 42(1-3), 335–346.
  8. Zhu, J., et al. (2017). Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks. Proceedings of the IEEE International Conference on Computer Vision. (CycleGAN serves as an example of learning without manually curated paired data—a small step in reducing one form of "human-in-the-loop debt").
  9. DeepMind. (2024). SIMA: A Generalist AI Agent for 3D Virtual Environments. https://www.deepmind.com/sima (An example of research progressing towards agents that are embodied and build world models).