1. مقدمه و تز اصلی

این تحلیل، بر اساس کار هربرت ال. رویتبلات، دیدگاهی مخالف و انتقادی نسبت به روایت غالب پیرامون فرا رسیدن قریب‌الوقوع هوش عمومی مصنوعی ارائه می‌دهد. تز اصلی مدعی است که مدل‌های کنونی و قابل پیش‌بینی هوش مصنوعی مولد، از جمله مدل‌های زبانی بزرگ، به دلیل یک محدودیت بنیادین با عنوان «بدهی انسان‌زاد» اساساً قادر به دستیابی به هوش عمومی مصنوعی نیستند. این بدهی به وابستگی سنگین و گریزناپذیر آن‌ها به ورودی انسانی برای ساختاردهی مسئله، طراحی معماری و داده‌های آموزشی گزینش‌شده اشاره دارد. این مقاله استدلال می‌کند که خطر واقعی هوش مصنوعی نه از ابرهوش، بلکه از سوءاستفاده از محدودیت‌های ذاتی آن در ترکیب با ساده‌لوحی انسان ناشی می‌شود.

2. مفهوم بدهی انسان‌زاد

بدهی انسان‌زاد چارچوب مفهومی اصلی برای توضیح این موضوع است که چرا هوش مصنوعی مدرن در مسیر دستیابی به هوش عمومی قرار ندارد.

2.1 تعریف و مؤلفه‌ها

بدهی انسان‌زاد سه وابستگی حیاتی را در بر می‌گیرد:

  • مسائل با ساختار مناسب: انسان‌ها باید وظایف را به گونه‌ای قالب‌بندی کنند که هوش مصنوعی بتواند آن‌ها را پردازش کند.
  • طراحی معماری: ساختار شبکه عصبی (مانند ترنسفورمر) یک اختراع انسانی است.
  • داده‌های آموزشی گزینش‌شده: مجموعه‌داده‌های عظیم توسط انسان‌ها جمع‌آوری، فیلتر و برچسب‌گذاری می‌شوند.

این بدهی به این معناست که سیستم‌های هوش مصنوعی در حال ایجاد پارادایم‌های جدید حل مسئله نیستند، بلکه در چارچوب‌های تعریف‌شده توسط انسان بهینه‌سازی می‌کنند.

2.2 ورودی انسانی به عنوان تکیه‌گاه

موفقیت مدل‌هایی مانند GPT-4 اغلب به اشتباه تفسیر می‌شود. رویتبلات استدلال می‌کند که آن‌ها موفق می‌شوند زیرا انسان‌ها قبلاً چالش‌های فکری اصلی را حل کرده‌اند و مدل را برای انجام «محاسبات ساده» مانند نزول گرادیان رها کرده‌اند. این مدل یک الگوگذار قدرتمند است، نه یک تعریف‌کننده یا حل‌کننده مسئله به معنای عام.

3. موانع بنیادین در برابر هوش عمومی مصنوعی

3.1 محدودیت یادگیری الگوی زبانی

هوش‌مصنوعی مولد کنونی هر مسئله‌ای را به عنوان یک مسئله یادگیری الگوی زبانی مطرح می‌کند. خواه کدنویسی، تولید تصویر یا استدلال باشد، مکانیزم زیربنایی پیش‌بینی توکن بعدی (کلمه، تکه پیکسل) بر اساس همبستگی‌های آماری در داده‌های آموزشی است. این رویکرد ذاتاً برای مسائلی که نیازمند استدلال غیرزبانی، انتزاعی یا نوآورانه‌ای هستند که در بیان انسانی قبلی گنجانده نشده، محدود است.

3.2 فقدان خودمختاری واقعی

هوش عمومی مصنوعی مستلزم خودمختاری است - توانایی تعیین اهداف خود، تعریف مسائل جدید و کسب مهارت‌ها بدون دستورالعمل صریح. همانطور که لو و همکاران (2024) اشاره کرده‌اند، مدل‌های زبانی بزرگ صرفاً از دستورات پیروی می‌کنند. آن‌ها فاقد انگیزه یا قابلیت ذاتی برای تسلط مستقل بر مهارت‌ها هستند که سنگ بنای هوش عمومی است.

3.3 مسئلهٔ گونه‌شناسی مسائل

یک مانع حیاتی، ناتوانی در تشخیص انواع متعدد مسائل است. برخی مسائل، مانند «مسائل بینشی» (مثلاً مسئله نه نقطه)، با بهینه‌سازی تدریجی یا تطبیق الگو از داده‌ها قابل حل نیستند. آن‌ها نیازمند بازساخت فضای مسئله هستند - قابلیتی که در سیستم‌های یادگیری مبتنی بر گرادیان کنونی غایب است.

4. پارادایم‌های ارزیابی ناقص

4.1 ناکارآمدی معیارهای سنجش

معیارهایی مانند ARC-AGI برای اندازه‌گیری کلیت کافی نیستند. قبولی در یک آزمون نشان نمی‌دهد که چگونه قبول شده است. یک مدل ممکن است از یک ترفند محدود و خاص آزمون (مانند حفظ کردن) یا یک اصل استدلال کلی استفاده کند. معیارها عملکرد را اندازه می‌گیرند، نه کلیت زیربنایی قابلیت را.

4.2 مغالطهٔ تأیید تالی

مقاله یک خطای منطقی کلیدی در ارزیابی هوش مصنوعی را برجسته می‌کند: مغالطه تأیید تالی. شکل آن این است: اگر یک موجودیت هوش عمومی مصنوعی داشته باشد، آزمون T را خواهد گذراند. موجودیت آزمون T را می‌گذراند. بنابراین، هوش عمومی مصنوعی دارد. این یک مغالطه است. موفقیت در یک وظیفه به طور منطقی دلالت بر استفاده از هوش عمومی ندارد، زیرا همان خروجی می‌تواند توسط مکانیزم‌های مختلف (و کم‌توان‌تر) بسیاری تولید شود.

5. تبلیغات در مقابل واقعیت هوش عمومی مصنوعی

شاخص‌های کلیدی در مناظره هوش عمومی مصنوعی

  • ۸۸٪ – تخمین زده شده از قابلیت‌های لازم هوش عمومی مصنوعی که قبلاً محقق شده (تامپسون، ۲۰۲۵).
  • ۳۳,۰۰۰+ – امضا بر روی نامه سرگشاده مؤسسه آینده حیات برای توقف توسعه مدل‌های زبانی بزرگ (۲۰۲۳).
  • ۲۰۲۵ – سال اجلاس اقدام هوش مصنوعی در پاریس.

5.1 پیش‌بینی‌ها و ادعاها

این عرصه با پیش‌بینی‌های جسورانه رهبران صنعت (آلتمن، ۲۰۲۵؛ لایک و ساتسکور، ۲۰۲۳) از هوش عمومی مصنوعی در آینده نزدیک، که اغلب کمّی شده‌اند (مثلاً «۸۸٪ از قابلیت‌ها»)، مشخص می‌شود. این‌ها در مقابل هشدارهای نمادینی مانند «ساعت ایمنی هوش مصنوعی» قرار می‌گیرند.

5.2 نگرانی‌های فزاینده و واکنش نظارتی

پیش‌بینی‌ها نگرانی قابل توجهی را برانگیخته است. بیانیه مرکز ایمنی هوش مصنوعی (۲۰۲۳) خطر هوش مصنوعی را با همه‌گیری‌ها و جنگ هسته‌ای برابر می‌داند. گزارش گلدستون (هریس و همکاران، ۲۰۲۴) که توسط وزارت امور خارجه ایالات متحده سفارش داده شده، از خطرات «شبیه سلاح کشتار جمعی» ناشی از رقابت آزمایشگاهی هشدار می‌دهد. این امر تلاش‌های نظارتی، مانند قانون پیشنهادی کالیفرنیا SB-1047 با دستور «کلید قطع اضطراری» آن را برانگیخته است، اگرچه وتو شد.

6. تحلیل فنی و چارچوب ریاضی

محدودیت مدل‌های کنونی را می‌توان تا حدی از طریق لنز هدف بهینه‌سازی آن‌ها درک کرد. یک مدل زبانی بزرگ استاندارد برای بیشینه‌سازی احتمال توکن بعدی $x_t$ با توجه به زمینه $x_{

$$\mathcal{L}_{LLM} = -\sum_{t} \log P(x_t | x_{

که در آن $\theta$ پارامترهای مدل است. این هدف مدل را مجبور می‌کند تا در درون‌یابی درون منیفولد داده‌های آموزشی متخصص شود. با این حال، هوش عمومی مصنوعی نیازمند برون‌یابی و انتزاع است - حل مسائل خارج از پوشش محدب مثال‌های آموزشی. مانع «مسئله بینشی» را می‌توان به عنوان یافتن یک راه‌حل $s^*$ در فضای $S$ مدل کرد، جایی که مسیر از مسئله $p$ به $s^*$ نیازمند یک تبدیل غیرقابل مشتق $T$ است که از داده‌ها یاد گرفته نشده:

$$s^* = T(p), \quad \text{where } \nabla_\theta T \text{ is undefined or zero.}$$

یادگیری مبتنی بر گرادیان ($\theta \leftarrow \theta - \eta \nabla_\theta \mathcal{L}$) نمی‌تواند چنین $T$ را کشف کند. این با استدلال‌های هوش مصنوعی کلاسیک، مانند «مسئله پایه‌گذاری نماد» (هارناد، ۱۹۹۰) همسو است، که چگونگی ظهور معناشناسی از دستکاری محض نحو را زیر سؤال می‌برد.

شکل: شکاف درون‌یابی در مقابل برون‌یابی

نمودار مفهومی: یک صفحه دو بعدی فضای مسائل و راه‌حل‌های ممکن را نشان می‌دهد. یک ابر متراکم از نقاط، داده‌های آموزشی (مسائل و راه‌حل‌های ارائه‌شده توسط انسان) را نشان می‌دهد. مدل‌های کنونی هوش‌مصنوعی مولد در یافتن راه‌حل‌ها درون این ابر (درون‌یابی) عالی عمل می‌کنند. علامت «X» قرمز یک «مسئله بینشی» را نشان می‌دهد - راه‌حل آن خارج از ابر قرار دارد. هیچ مسیر گرادیان همواری از ابر به «X» منتهی نمی‌شود؛ رسیدن به آن نیازمند یک جهش ناپیوسته در استدلال است که نزول گرادیان نمی‌تواند به آن دست یابد. این به صورت بصری بدهی انسان‌زاد را نشان می‌دهد: مدل به ابر داده ارائه‌شده توسط انسان محدود است.

7. چارچوب تحلیلی: ماتریس قابلیت هوش عمومی مصنوعی

برای فراتر رفتن از معیارسنجی مغالطه‌آمیز، یک ماتریس ارزیابی کیفی پیشنهاد می‌کنیم. به جای پرسش «آیا آزمون را گذراند؟»، می‌پرسیم «ماهیت قابلیت آن چیست؟» برای هر وظیفه T، در دو محور ارزیابی کنید:

  1. کلیت روش (G): آیا روش حل، خاص T است (G=0)، برای یک دسته از وظایف قابل اعمال است (G=1)، یا مستقل از حوزه است (G=2)؟
  2. خودمختاری در فرمول‌بندی مسئله (A): آیا مسئله کاملاً توسط انسان‌ها تعریف شده (A=0)، تا حدی توسط سیستم اصلاح شده (A=1)، یا توسط سیستم خودکشف/تعریف شده (A=2)؟

مثال موردی (معیار ARC-AGI): مدلی که راه‌حل‌های الگوهای معماهای ARC خاص را حفظ می‌کند، امتیاز (G=0, A=0) می‌گیرد. مدلی که یک اکتشاف استدلال بصری کلی را که برای معماهای ARC دیده‌نشده قابل اعمال است یاد می‌گیرد، امتیاز (G=1, A=0) می‌گیرد. سیستمی که نه تنها معماهای ARC را حل می‌کند، بلکه یک دسته جدید از معماهای استدلال انتزاعی را به تنهایی شناسایی می‌کند، به (G=2, A=2) نزدیک می‌شود. مدل‌های پیشرفته کنونی احتمالاً در ربع (G=0/1, A=0) عمل می‌کنند. هوش عمومی مصنوعی واقعی نیازمند عملکرد مداوم در (G=2, A=2) است. این چارچوب، مغالطه تأیید تالی را صریح می‌کند: یک نمره آزمون بالا فقط عملکرد را تأیید می‌کند، نه نمره‌های بالای G یا A.

8. جهت‌گیری‌های آینده و چشم‌انداز پژوهشی

دستیابی به هوش عمومی مصنوعی نیازمند تغییر پارادایم خواهد بود، نه صرفاً مقیاس‌دهی معماری‌های کنونی.

  • مدل‌های جهان و شناخت مجسم: پژوهش باید فراتر از پیش‌بینی متن منفعل به سمت عامل‌های فعالی حرکت کند که از طریق تعامل، مدل‌های درونی از جهان می‌سازند، همانطور که در پیشرفت‌های رباتیک و شبیه‌سازی (مانند SIMA دیپ‌مایند) مشاهده می‌شود. این امر وابستگی به داده‌های زبانی گزینش‌شده را کاهش می‌دهد.
  • ترکیب‌های عصب‌نمادین: ادغام قدرت تشخیص الگوی شبکه‌های عصبی با استدلال صریح و ترکیب‌پذیر هوش مصنوعی نمادین (همانطور که توسط آزمایشگاه واتسون MIT-IBM بررسی شده) می‌تواند مانع «مسئله بینشی» را برطرف کند.
  • اهداف یادگیری خودهدایت‌شده: توسعه الگوریتم‌های انگیزش ذاتی که به سیستم‌ها اجازه می‌دهد اهداف یادگیری خود را تولید کنند، فراتر از توابع زیان تعریف‌شده توسط انسان حرکت کنند. این یک حوزه نوپا در پژوهش هوش مصنوعی است.
  • علم ارزیابی جدید: ایجاد معیارهایی که صراحتاً کلیت (G) و خودمختاری (A) را می‌آزمایند، احتمالاً از طریق مجموعه چالش‌های باز و خودتولیدشده‌ای که مهارت‌های فرایادگیری و فرمول‌بندی مسئله را بررسی می‌کنند.

ملموس‌ترین «کاربرد» این تحلیل در سیاست و سرمایه‌گذاری است: مقررات باید بر آسیب‌های ملموس و کوتاه‌مدت ناشی از سیستم‌های متعصب یا غیرقابل اعتماد متمرکز شوند، نه بر تصاحب فرضی هوش عمومی مصنوعی. سرمایه‌گذاری باید به سمت پژوهش‌های بنیادینی هدایت شود که بدهی انسان‌زاد را کاهش می‌دهند، نه صرفاً به سمت مقیاس‌دهی داده‌ها و پارامترها.

9. دیدگاه تحلیلگر انتقادی

بینش اصلی: صنعت هوش مصنوعی از یک مورد شدید «نزدیک‌بینی خروجی» رنج می‌برد. ما مجذوب متن روان و تصاویر خیره‌کننده شده‌ایم و توانایی آماری را با درک اشتباه می‌گیریم. «بدهی انسان‌زاد» رویتبلات اصطلاح کامل برای این وابستگی پنهان است. این فیل در اتاق سرور است. هر «دستاوردی» در بررسی دقیق، گواهی بر نبوغ انسانی در گزینش داده و قالب‌بندی مسئله است، نه هوش زاده ماشین. داستان واقعی قدرت هوش مصنوعی نیست؛ کار عظیم، و اغلب نامرئی، انسانی است که آن را قدرتمند جلوه می‌دهد.

جریان منطقی: استدلال به طرز ویرانگری ساده و از نظر منطقی بی‌نقص است. ۱) هدف را تعریف کن (هوش عمومی مصنوعی به عنوان حل مسئله خودمختار و کلی). ۲) ابزار را بررسی کن (هوش‌مصنوعی مولد به عنوان یک تطبیق‌دهنده الگو بر داده‌های انسانی). ۳) عدم تطابق را شناسایی کن (عملکرد اصلی ابزار وابسته به پیش‌پردازش انسانی است). ۴) خطا را تشخیص بده (اشتباه گرفتن خروجی ابزار با الزامات هدف). ۵) نقص سیستماتیک را افشا کن (روش‌های ارزیابی که نمی‌توانند بین حفظ کردن و درک تمایز قائل شوند). این فلسفه نیست؛ پاسخگویی مهندسی پایه است.

نقاط قوت و ضعف: نقطه قوت آن، نقد بنیادین آن است. این استدلال فرضیه کل روایت «هوش عمومی مصنوعی نزدیک است» را با زیر سؤال بردن خود معماری امید مورد حمله قرار می‌دهد. ضعف آن، شاید این باشد که به طور کامل با استدلال متقابل از ظهور - امکان قابلیت‌های کیفی جدید (مانند استدلال زنجیره‌ای فکر) که در مقیاس به روش‌هایی که هنوز درک نکرده‌ایم ظهور می‌کنند - درگیر نمی‌شود. با این حال، مقاله به درستی پاسخ می‌دهد که ظهور جادو نیست؛ هنوز هم توسط هدف آموزشی $\mathcal{L}_{LLM}$ محدود شده است. شما نمی‌توانید خودمختاری را از یک تابع زیانی که هیچ عبارتی برای آن ندارد، ظهور دهید.

بینش‌های عملی: برای سیاست‌گذاران: تبلیغات علمی-تخیلی را نادیده بگیرید. آنچه پیش روی شماست را تنظیم کنید: حریم خصوصی داده، تعصب الگوریتمی، جابجایی نیروی کار و هزینه زیست‌محیطی آموزش. یک «کلید قطع اضطراری» برای مدلی که نمی‌تواند بند کفش خود را ببندد، تئاتر امنیتی است. برای سرمایه‌گذاران: نسبت به هر شرکتی که ارزش‌گذاری آن مبتنی بر دستیابی به هوش عمومی مصنوعی است، عمیقاً شک‌کننده باشید. روی شرکت‌هایی شرط ببندید که مسائل خاص و ارزشمندی را با هوش مصنوعی قوی حل می‌کنند، نه آن‌هایی که نرم‌افزار تبلیغاتی هوش عمومی مصنوعی می‌فروشند. برای پژوهشگران: تعقیب جدول رده‌بندی معیارها را متوقف کنید. شروع به طراحی آزمایش‌هایی کنید که عمداً سعی در شکستن توهم درک مدل شما دارند. به دنبال معماری‌هایی باشید که بدهی انسان‌زاد را به حداقل می‌رسانند. مسیر پیش رو از طریق داده بیشتر از همان نوع نیست، بلکه از طریق اصول یادگیری اساساً متفاوت است. ساعت به پایین هوش عمومی مصنوعی نمی‌شمارد؛ به لحظه‌ای می‌شمارد که متوجه می‌شویم تابع اشتباهی را بهینه می‌کرده‌ایم.

10. منابع

  1. Roitblat, H. L. (Source PDF). Some things to know about achieving artificial general intelligence.
  2. Chollet, F. (2019). On the Measure of Intelligence. arXiv preprint arXiv:1911.01547.
  3. Lu, Y., et al. (2024). [Reference on LLMs following instructions].
  4. Harris, J., Harris, T., & Beal, B. (2024). The Gladstone Report. U.S. Department of State.
  5. Center for AI Safety. (2023). Statement on AI Risk. https://www.safe.ai/work/statement-on-ai-risk
  6. Future of Life Institute. (2023). Pause Giant AI Experiments: An Open Letter. https://futureoflife.org/open-letter/pause-giant-ai-experiments/
  7. Harnad, S. (1990). The Symbol Grounding Problem. Physica D: Nonlinear Phenomena, 42(1-3), 335–346.
  8. Zhu, J., et al. (2017). Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks. Proceedings of the IEEE International Conference on Computer Vision (ICCV). (CycleGAN as an example of learning without paired, human-curated data—a small step in reducing one form of anthropogenic debt).
  9. DeepMind. (2024). SIMA: Generalist AI Agent for 3D Virtual Environments. https://www.deepmind.com/sima (Example of research moving towards embodied, world-model-building agents).