1. مقدمه و تز اصلی
این تحلیل، بر اساس کار هربرت ال. رویتبلات، دیدگاهی مخالف و انتقادی نسبت به روایت غالب پیرامون فرا رسیدن قریبالوقوع هوش عمومی مصنوعی ارائه میدهد. تز اصلی مدعی است که مدلهای کنونی و قابل پیشبینی هوش مصنوعی مولد، از جمله مدلهای زبانی بزرگ، به دلیل یک محدودیت بنیادین با عنوان «بدهی انسانزاد» اساساً قادر به دستیابی به هوش عمومی مصنوعی نیستند. این بدهی به وابستگی سنگین و گریزناپذیر آنها به ورودی انسانی برای ساختاردهی مسئله، طراحی معماری و دادههای آموزشی گزینششده اشاره دارد. این مقاله استدلال میکند که خطر واقعی هوش مصنوعی نه از ابرهوش، بلکه از سوءاستفاده از محدودیتهای ذاتی آن در ترکیب با سادهلوحی انسان ناشی میشود.
2. مفهوم بدهی انسانزاد
بدهی انسانزاد چارچوب مفهومی اصلی برای توضیح این موضوع است که چرا هوش مصنوعی مدرن در مسیر دستیابی به هوش عمومی قرار ندارد.
2.1 تعریف و مؤلفهها
بدهی انسانزاد سه وابستگی حیاتی را در بر میگیرد:
- مسائل با ساختار مناسب: انسانها باید وظایف را به گونهای قالببندی کنند که هوش مصنوعی بتواند آنها را پردازش کند.
- طراحی معماری: ساختار شبکه عصبی (مانند ترنسفورمر) یک اختراع انسانی است.
- دادههای آموزشی گزینششده: مجموعهدادههای عظیم توسط انسانها جمعآوری، فیلتر و برچسبگذاری میشوند.
این بدهی به این معناست که سیستمهای هوش مصنوعی در حال ایجاد پارادایمهای جدید حل مسئله نیستند، بلکه در چارچوبهای تعریفشده توسط انسان بهینهسازی میکنند.
2.2 ورودی انسانی به عنوان تکیهگاه
موفقیت مدلهایی مانند GPT-4 اغلب به اشتباه تفسیر میشود. رویتبلات استدلال میکند که آنها موفق میشوند زیرا انسانها قبلاً چالشهای فکری اصلی را حل کردهاند و مدل را برای انجام «محاسبات ساده» مانند نزول گرادیان رها کردهاند. این مدل یک الگوگذار قدرتمند است، نه یک تعریفکننده یا حلکننده مسئله به معنای عام.
3. موانع بنیادین در برابر هوش عمومی مصنوعی
3.1 محدودیت یادگیری الگوی زبانی
هوشمصنوعی مولد کنونی هر مسئلهای را به عنوان یک مسئله یادگیری الگوی زبانی مطرح میکند. خواه کدنویسی، تولید تصویر یا استدلال باشد، مکانیزم زیربنایی پیشبینی توکن بعدی (کلمه، تکه پیکسل) بر اساس همبستگیهای آماری در دادههای آموزشی است. این رویکرد ذاتاً برای مسائلی که نیازمند استدلال غیرزبانی، انتزاعی یا نوآورانهای هستند که در بیان انسانی قبلی گنجانده نشده، محدود است.
3.2 فقدان خودمختاری واقعی
هوش عمومی مصنوعی مستلزم خودمختاری است - توانایی تعیین اهداف خود، تعریف مسائل جدید و کسب مهارتها بدون دستورالعمل صریح. همانطور که لو و همکاران (2024) اشاره کردهاند، مدلهای زبانی بزرگ صرفاً از دستورات پیروی میکنند. آنها فاقد انگیزه یا قابلیت ذاتی برای تسلط مستقل بر مهارتها هستند که سنگ بنای هوش عمومی است.
3.3 مسئلهٔ گونهشناسی مسائل
یک مانع حیاتی، ناتوانی در تشخیص انواع متعدد مسائل است. برخی مسائل، مانند «مسائل بینشی» (مثلاً مسئله نه نقطه)، با بهینهسازی تدریجی یا تطبیق الگو از دادهها قابل حل نیستند. آنها نیازمند بازساخت فضای مسئله هستند - قابلیتی که در سیستمهای یادگیری مبتنی بر گرادیان کنونی غایب است.
4. پارادایمهای ارزیابی ناقص
4.1 ناکارآمدی معیارهای سنجش
معیارهایی مانند ARC-AGI برای اندازهگیری کلیت کافی نیستند. قبولی در یک آزمون نشان نمیدهد که چگونه قبول شده است. یک مدل ممکن است از یک ترفند محدود و خاص آزمون (مانند حفظ کردن) یا یک اصل استدلال کلی استفاده کند. معیارها عملکرد را اندازه میگیرند، نه کلیت زیربنایی قابلیت را.
4.2 مغالطهٔ تأیید تالی
مقاله یک خطای منطقی کلیدی در ارزیابی هوش مصنوعی را برجسته میکند: مغالطه تأیید تالی. شکل آن این است: اگر یک موجودیت هوش عمومی مصنوعی داشته باشد، آزمون T را خواهد گذراند. موجودیت آزمون T را میگذراند. بنابراین، هوش عمومی مصنوعی دارد. این یک مغالطه است. موفقیت در یک وظیفه به طور منطقی دلالت بر استفاده از هوش عمومی ندارد، زیرا همان خروجی میتواند توسط مکانیزمهای مختلف (و کمتوانتر) بسیاری تولید شود.
5. تبلیغات در مقابل واقعیت هوش عمومی مصنوعی
شاخصهای کلیدی در مناظره هوش عمومی مصنوعی
- ۸۸٪ – تخمین زده شده از قابلیتهای لازم هوش عمومی مصنوعی که قبلاً محقق شده (تامپسون، ۲۰۲۵).
- ۳۳,۰۰۰+ – امضا بر روی نامه سرگشاده مؤسسه آینده حیات برای توقف توسعه مدلهای زبانی بزرگ (۲۰۲۳).
- ۲۰۲۵ – سال اجلاس اقدام هوش مصنوعی در پاریس.
5.1 پیشبینیها و ادعاها
این عرصه با پیشبینیهای جسورانه رهبران صنعت (آلتمن، ۲۰۲۵؛ لایک و ساتسکور، ۲۰۲۳) از هوش عمومی مصنوعی در آینده نزدیک، که اغلب کمّی شدهاند (مثلاً «۸۸٪ از قابلیتها»)، مشخص میشود. اینها در مقابل هشدارهای نمادینی مانند «ساعت ایمنی هوش مصنوعی» قرار میگیرند.
5.2 نگرانیهای فزاینده و واکنش نظارتی
پیشبینیها نگرانی قابل توجهی را برانگیخته است. بیانیه مرکز ایمنی هوش مصنوعی (۲۰۲۳) خطر هوش مصنوعی را با همهگیریها و جنگ هستهای برابر میداند. گزارش گلدستون (هریس و همکاران، ۲۰۲۴) که توسط وزارت امور خارجه ایالات متحده سفارش داده شده، از خطرات «شبیه سلاح کشتار جمعی» ناشی از رقابت آزمایشگاهی هشدار میدهد. این امر تلاشهای نظارتی، مانند قانون پیشنهادی کالیفرنیا SB-1047 با دستور «کلید قطع اضطراری» آن را برانگیخته است، اگرچه وتو شد.
6. تحلیل فنی و چارچوب ریاضی
محدودیت مدلهای کنونی را میتوان تا حدی از طریق لنز هدف بهینهسازی آنها درک کرد. یک مدل زبانی بزرگ استاندارد برای بیشینهسازی احتمال توکن بعدی $x_t$ با توجه به زمینه $x_{
$$\mathcal{L}_{LLM} = -\sum_{t} \log P(x_t | x_{
که در آن $\theta$ پارامترهای مدل است. این هدف مدل را مجبور میکند تا در درونیابی درون منیفولد دادههای آموزشی متخصص شود. با این حال، هوش عمومی مصنوعی نیازمند برونیابی و انتزاع است - حل مسائل خارج از پوشش محدب مثالهای آموزشی. مانع «مسئله بینشی» را میتوان به عنوان یافتن یک راهحل $s^*$ در فضای $S$ مدل کرد، جایی که مسیر از مسئله $p$ به $s^*$ نیازمند یک تبدیل غیرقابل مشتق $T$ است که از دادهها یاد گرفته نشده:
$$s^* = T(p), \quad \text{where } \nabla_\theta T \text{ is undefined or zero.}$$
یادگیری مبتنی بر گرادیان ($\theta \leftarrow \theta - \eta \nabla_\theta \mathcal{L}$) نمیتواند چنین $T$ را کشف کند. این با استدلالهای هوش مصنوعی کلاسیک، مانند «مسئله پایهگذاری نماد» (هارناد، ۱۹۹۰) همسو است، که چگونگی ظهور معناشناسی از دستکاری محض نحو را زیر سؤال میبرد.
شکل: شکاف درونیابی در مقابل برونیابی
نمودار مفهومی: یک صفحه دو بعدی فضای مسائل و راهحلهای ممکن را نشان میدهد. یک ابر متراکم از نقاط، دادههای آموزشی (مسائل و راهحلهای ارائهشده توسط انسان) را نشان میدهد. مدلهای کنونی هوشمصنوعی مولد در یافتن راهحلها درون این ابر (درونیابی) عالی عمل میکنند. علامت «X» قرمز یک «مسئله بینشی» را نشان میدهد - راهحل آن خارج از ابر قرار دارد. هیچ مسیر گرادیان همواری از ابر به «X» منتهی نمیشود؛ رسیدن به آن نیازمند یک جهش ناپیوسته در استدلال است که نزول گرادیان نمیتواند به آن دست یابد. این به صورت بصری بدهی انسانزاد را نشان میدهد: مدل به ابر داده ارائهشده توسط انسان محدود است.
7. چارچوب تحلیلی: ماتریس قابلیت هوش عمومی مصنوعی
برای فراتر رفتن از معیارسنجی مغالطهآمیز، یک ماتریس ارزیابی کیفی پیشنهاد میکنیم. به جای پرسش «آیا آزمون را گذراند؟»، میپرسیم «ماهیت قابلیت آن چیست؟» برای هر وظیفه T، در دو محور ارزیابی کنید:
- کلیت روش (G): آیا روش حل، خاص T است (G=0)، برای یک دسته از وظایف قابل اعمال است (G=1)، یا مستقل از حوزه است (G=2)؟
- خودمختاری در فرمولبندی مسئله (A): آیا مسئله کاملاً توسط انسانها تعریف شده (A=0)، تا حدی توسط سیستم اصلاح شده (A=1)، یا توسط سیستم خودکشف/تعریف شده (A=2)؟
مثال موردی (معیار ARC-AGI): مدلی که راهحلهای الگوهای معماهای ARC خاص را حفظ میکند، امتیاز (G=0, A=0) میگیرد. مدلی که یک اکتشاف استدلال بصری کلی را که برای معماهای ARC دیدهنشده قابل اعمال است یاد میگیرد، امتیاز (G=1, A=0) میگیرد. سیستمی که نه تنها معماهای ARC را حل میکند، بلکه یک دسته جدید از معماهای استدلال انتزاعی را به تنهایی شناسایی میکند، به (G=2, A=2) نزدیک میشود. مدلهای پیشرفته کنونی احتمالاً در ربع (G=0/1, A=0) عمل میکنند. هوش عمومی مصنوعی واقعی نیازمند عملکرد مداوم در (G=2, A=2) است. این چارچوب، مغالطه تأیید تالی را صریح میکند: یک نمره آزمون بالا فقط عملکرد را تأیید میکند، نه نمرههای بالای G یا A.
8. جهتگیریهای آینده و چشمانداز پژوهشی
دستیابی به هوش عمومی مصنوعی نیازمند تغییر پارادایم خواهد بود، نه صرفاً مقیاسدهی معماریهای کنونی.
- مدلهای جهان و شناخت مجسم: پژوهش باید فراتر از پیشبینی متن منفعل به سمت عاملهای فعالی حرکت کند که از طریق تعامل، مدلهای درونی از جهان میسازند، همانطور که در پیشرفتهای رباتیک و شبیهسازی (مانند SIMA دیپمایند) مشاهده میشود. این امر وابستگی به دادههای زبانی گزینششده را کاهش میدهد.
- ترکیبهای عصبنمادین: ادغام قدرت تشخیص الگوی شبکههای عصبی با استدلال صریح و ترکیبپذیر هوش مصنوعی نمادین (همانطور که توسط آزمایشگاه واتسون MIT-IBM بررسی شده) میتواند مانع «مسئله بینشی» را برطرف کند.
- اهداف یادگیری خودهدایتشده: توسعه الگوریتمهای انگیزش ذاتی که به سیستمها اجازه میدهد اهداف یادگیری خود را تولید کنند، فراتر از توابع زیان تعریفشده توسط انسان حرکت کنند. این یک حوزه نوپا در پژوهش هوش مصنوعی است.
- علم ارزیابی جدید: ایجاد معیارهایی که صراحتاً کلیت (G) و خودمختاری (A) را میآزمایند، احتمالاً از طریق مجموعه چالشهای باز و خودتولیدشدهای که مهارتهای فرایادگیری و فرمولبندی مسئله را بررسی میکنند.
ملموسترین «کاربرد» این تحلیل در سیاست و سرمایهگذاری است: مقررات باید بر آسیبهای ملموس و کوتاهمدت ناشی از سیستمهای متعصب یا غیرقابل اعتماد متمرکز شوند، نه بر تصاحب فرضی هوش عمومی مصنوعی. سرمایهگذاری باید به سمت پژوهشهای بنیادینی هدایت شود که بدهی انسانزاد را کاهش میدهند، نه صرفاً به سمت مقیاسدهی دادهها و پارامترها.
9. دیدگاه تحلیلگر انتقادی
بینش اصلی: صنعت هوش مصنوعی از یک مورد شدید «نزدیکبینی خروجی» رنج میبرد. ما مجذوب متن روان و تصاویر خیرهکننده شدهایم و توانایی آماری را با درک اشتباه میگیریم. «بدهی انسانزاد» رویتبلات اصطلاح کامل برای این وابستگی پنهان است. این فیل در اتاق سرور است. هر «دستاوردی» در بررسی دقیق، گواهی بر نبوغ انسانی در گزینش داده و قالببندی مسئله است، نه هوش زاده ماشین. داستان واقعی قدرت هوش مصنوعی نیست؛ کار عظیم، و اغلب نامرئی، انسانی است که آن را قدرتمند جلوه میدهد.
جریان منطقی: استدلال به طرز ویرانگری ساده و از نظر منطقی بینقص است. ۱) هدف را تعریف کن (هوش عمومی مصنوعی به عنوان حل مسئله خودمختار و کلی). ۲) ابزار را بررسی کن (هوشمصنوعی مولد به عنوان یک تطبیقدهنده الگو بر دادههای انسانی). ۳) عدم تطابق را شناسایی کن (عملکرد اصلی ابزار وابسته به پیشپردازش انسانی است). ۴) خطا را تشخیص بده (اشتباه گرفتن خروجی ابزار با الزامات هدف). ۵) نقص سیستماتیک را افشا کن (روشهای ارزیابی که نمیتوانند بین حفظ کردن و درک تمایز قائل شوند). این فلسفه نیست؛ پاسخگویی مهندسی پایه است.
نقاط قوت و ضعف: نقطه قوت آن، نقد بنیادین آن است. این استدلال فرضیه کل روایت «هوش عمومی مصنوعی نزدیک است» را با زیر سؤال بردن خود معماری امید مورد حمله قرار میدهد. ضعف آن، شاید این باشد که به طور کامل با استدلال متقابل از ظهور - امکان قابلیتهای کیفی جدید (مانند استدلال زنجیرهای فکر) که در مقیاس به روشهایی که هنوز درک نکردهایم ظهور میکنند - درگیر نمیشود. با این حال، مقاله به درستی پاسخ میدهد که ظهور جادو نیست؛ هنوز هم توسط هدف آموزشی $\mathcal{L}_{LLM}$ محدود شده است. شما نمیتوانید خودمختاری را از یک تابع زیانی که هیچ عبارتی برای آن ندارد، ظهور دهید.
بینشهای عملی: برای سیاستگذاران: تبلیغات علمی-تخیلی را نادیده بگیرید. آنچه پیش روی شماست را تنظیم کنید: حریم خصوصی داده، تعصب الگوریتمی، جابجایی نیروی کار و هزینه زیستمحیطی آموزش. یک «کلید قطع اضطراری» برای مدلی که نمیتواند بند کفش خود را ببندد، تئاتر امنیتی است. برای سرمایهگذاران: نسبت به هر شرکتی که ارزشگذاری آن مبتنی بر دستیابی به هوش عمومی مصنوعی است، عمیقاً شککننده باشید. روی شرکتهایی شرط ببندید که مسائل خاص و ارزشمندی را با هوش مصنوعی قوی حل میکنند، نه آنهایی که نرمافزار تبلیغاتی هوش عمومی مصنوعی میفروشند. برای پژوهشگران: تعقیب جدول ردهبندی معیارها را متوقف کنید. شروع به طراحی آزمایشهایی کنید که عمداً سعی در شکستن توهم درک مدل شما دارند. به دنبال معماریهایی باشید که بدهی انسانزاد را به حداقل میرسانند. مسیر پیش رو از طریق داده بیشتر از همان نوع نیست، بلکه از طریق اصول یادگیری اساساً متفاوت است. ساعت به پایین هوش عمومی مصنوعی نمیشمارد؛ به لحظهای میشمارد که متوجه میشویم تابع اشتباهی را بهینه میکردهایم.
10. منابع
- Roitblat, H. L. (Source PDF). Some things to know about achieving artificial general intelligence.
- Chollet, F. (2019). On the Measure of Intelligence. arXiv preprint arXiv:1911.01547.
- Lu, Y., et al. (2024). [Reference on LLMs following instructions].
- Harris, J., Harris, T., & Beal, B. (2024). The Gladstone Report. U.S. Department of State.
- Center for AI Safety. (2023). Statement on AI Risk. https://www.safe.ai/work/statement-on-ai-risk
- Future of Life Institute. (2023). Pause Giant AI Experiments: An Open Letter. https://futureoflife.org/open-letter/pause-giant-ai-experiments/
- Harnad, S. (1990). The Symbol Grounding Problem. Physica D: Nonlinear Phenomena, 42(1-3), 335–346.
- Zhu, J., et al. (2017). Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks. Proceedings of the IEEE International Conference on Computer Vision (ICCV). (CycleGAN as an example of learning without paired, human-curated data—a small step in reducing one form of anthropogenic debt).
- DeepMind. (2024). SIMA: Generalist AI Agent for 3D Virtual Environments. https://www.deepmind.com/sima (Example of research moving towards embodied, world-model-building agents).