1. المقدمة والأطروحة الأساسية
يقدم هذا التحليل، المستند إلى عمل هربرت إل. رويتبلات، رؤية معارضة ونقدية للرواية السائدة حول الاقتراب الوشيك للذكاء العام الاصطناعي (AGI). تطرح الأطروحة المركزية أن نماذج الذكاء الاصطناعي التوليدي (GenAI) الحالية والمتوقعة، بما في ذلك نماذج اللغة الكبيرة (LLMs)، غير قادرة جوهريًا على تحقيق الذكاء العام الاصطناعي بسبب قيد أساسي يُطلق عليه "الدَّيْن البشري المنشأ". يشير هذا الدَّيْن إلى اعتمادها الثقيل واللامفر منه على المدخل البشري في هيكلة المشكلات، وتصميم البنية، وبيانات التدريب المُنتقاة. يجادل البحث بأن الخطر الحقيقي من الذكاء الاصطناعي لا ينبع من الذكاء الفائق، بل من سوء استخدام قيوده الجوهرية مقترنة بسذاجة البشر.
2. مفهوم الدَّيْن البشري المنشأ
الدَّيْن البشري المنشأ هو الإطار المفاهيمي الأساسي الذي يفسر سبب عدم سير الذكاء الاصطناعي الحديث على طريق الذكاء العام.
2.1 التعريف والمكونات
يضم الدَّيْن البشري المنشأ ثلاثة تبعيات حرجة:
- المشكلات ذات الهيكلة الجيدة: يجب على البشر صياغة المهام بطريقة يمكن للذكاء الاصطناعي معالجتها.
- تصميم البنية: هيكل الشبكة العصبية (مثل المحوِّل Transformer) هو اختراع بشري.
- بيانات التدريب المُنتقاة: يتم جمع مجموعات البيانات الضخمة وتصفيتها ووسمها بواسطة البشر.
يعني هذا الدَّيْن أن أنظمة الذكاء الاصطناعي لا تخلق نماذج جديدة لحل المشكلات، بل تُحسِّن داخل الحدود التي يحددها البشر.
2.2 المدخل البشري كعكاز
غالبًا ما يُساء تفسير نجاح نماذج مثل GPT-4. يجادل رويتبلات بأنها تنجح لأن البشر قد حلوا بالفعل التحديات الفكرية الأساسية، تاركين للنموذج أداء "حسابات بسيطة" مثل النزول التدرجي. النموذج هو مُطبِّق قوي للأنماط، وليس مُعرِّفًا للمشكلات أو حلالًا لها بالمعنى العام.
3. الحواجز الأساسية أمام الذكاء العام الاصطناعي
3.1 قيود تعلم أنماط اللغة
يُصوِّر الذكاء الاصطناعي التوليدي الحالي كل مشكلة على أنها مشكلة تعلم أنماط لغوية. سواء كان الأمر برمجةً، أو توليد صور، أو استدلالًا، فإن الآلية الأساسية هي التنبؤ بالرمز التالي (كلمة، رقعة بكسل) بناءً على الارتباطات الإحصائية في بيانات التدريب. هذا النهج محدود بطبيعته للمشكلات التي تتطلب استدلالًا غير لغوي، أو مجردًا، أو جديدًا غير مُضمَّن في التعبير البشري السابق.
3.2 غياب الاستقلالية الحقيقية
يتطلب الذكاء العام الاصطناعي استقلاليةً – القدرة على تحديد أهدافه الخاصة، وتحديد مشكلات جديدة، واكتساب مهارات دون تعليمات صريحة. كما لاحظ لو وآخرون (2024)، فإن نماذج اللغة الكبيرة تتبع التعليمات فحسب. تفتقر إلى الدافع الجوهري أو القدرة على إتقان المهارات ذاتيًا، وهو حجر الزاوية في الذكاء العام.
3.3 مشكلة تصنيف المشكلات
حاجز حرج هو الفشل في التعرف على أنواع متعددة من المشكلات. بعض المشكلات، مثل "مشكلات البصيرة" (مثل مشكلة النقاط التسعة)، لا يمكن حلها بالتحسين التدريجي أو مطابقة الأنماط من البيانات. فهي تتطلب إعادة هيكلة فضاء المشكلة – وهي قدرة غائبة في أنظمة التعلم القائمة على التدرج الحالية.
4. نماذج التقييم المعيوبة
4.1 عدم كفاية المعايير المرجعية
المعايير المرجعية مثل ARC-AGI غير كافية لقياس العمومية. اجتياز اختبار لا يكشف كيفية اجتيازه. قد يستخدم النموذج خدعة ضيقة خاصة بالاختبار (مثل الحفظ) أو مبدأ استدلالي عام. تقيس المعايير المرجعية الأداء، وليس العمومية الأساسية للقدرة.
4.2 مغالطة تأكيد النتيجة
يسلط البحث الضوء على خطأ منطقي رئيسي في تقييم الذكاء الاصطناعي: مغالطة تأكيد النتيجة. الصيغة هي: إذا كان الكيان يمتلك ذكاءً عامًا اصطناعيًا، فسوف يجتاز الاختبار T. الكيان يجتاز الاختبار T. إذن، هو يمتلك ذكاءً عامًا اصطناعيًا. هذه مغالطة. النجاح في مهمة لا يعني منطقيًا استخدام الذكاء العام، حيث يمكن إنتاج نفس المخرجات بواسطة آليات مختلفة كثيرة (وأقل قدرة).
5. الضجيج مقابل الواقع في الذكاء العام الاصطناعي
المقاييس الرئيسية في جدل الذكاء العام الاصطناعي
- 88% – النسبة المقدرة من قدرات الذكاء العام الاصطناعي الضرورية التي تم تحقيقها بالفعل (Thompson، 2025).
- 33,000+ – التوقيعات على الرسالة المفتوحة لمعهد مستقبل الحياة لوقف تطوير نماذج اللغة الكبيرة (2023).
- 2025 – عام قمة باريس للعمل في مجال الذكاء الاصطناعي.
5.1 التوقعات والادعاءات
يتسم المشهد بتوقعات جريئة من قادة الصناعة (Altman، 2025؛ Leike & Sutskever، 2023) حول الذكاء العام الاصطناعي القريب، غالبًا ما تكون مُقَوْمَة (مثل "88% من القدرات"). يتم مقارنة هذه التوقعات بتحذيرات رمزية مثل "ساعة سلامة الذكاء الاصطناعي".
5.2 المخاوف المتصاعدة والاستجابة التنظيمية
أثارت التوقعات قلقًا كبيرًا. تعادل بيان مركز سلامة الذكاء الاصطناعي (2023) مخاطر الذكاء الاصطناعي مع الأوبئة والحرب النووية. يحذر تقرير غلادستون (Harris وآخرون، 2024) الذي كلفت به وزارة الخارجية الأمريكية من مخاطر "تشبه أسلحة الدمار الشامل" مدفوعة بالمنافسة بين المختبرات. وقد حفز هذا الجهود التنظيمية، مثل مشروع القانون SB-1047 المقترح في كاليفورنيا مع تفويض "مفتاح الإيقاف"، على الرغم من نقضه.
6. التحليل التقني والإطار الرياضي
يمكن فهم قيود النماذج الحالية جزئيًا من خلال عدسة هدف التحسين الخاص بها. يتم تدريب نموذج لغة كبير قياسي لتعظيم احتمالية الرمز التالي $x_t$ في سياق معين $x_{
$$\mathcal{L}_{LLM} = -\sum_{t} \log P(x_t | x_{
حيث $\theta$ هي معلمات النموذج. يجبر هذا الهدف النموذج على أن يصبح خبيرًا في الاستيفاء داخل متشعب بيانات التدريب. ومع ذلك، يتطلب الذكاء العام الاصطناعي الاستقراء والتجريد – حل مشكلات خارج الهيكل المحدب لأمثلة التدريب. يمكن نمذجة حاجز "مشكلة البصيرة" على أنه إيجاد حل $s^*$ في فضاء $S$، حيث يتطلب المسار من المشكلة $p$ إلى $s^*$ تحويلًا غير قابل للاشتقاق $T$ لم يتم تعلمه من البيانات:
$$s^* = T(p), \quad \text{حيث } \nabla_\theta T \text{ غير معرف أو صفر.}$$
لا يمكن للتعلم القائم على التدرج ($\theta \leftarrow \theta - \eta \nabla_\theta \mathcal{L}$) اكتشاف مثل هذا $T$. يتوافق هذا مع الحجج من الذكاء الاصطناعي الكلاسيكي، مثل "مشكلة تأصيل الرمز" (Harnad، 1990)، والتي تشكك في كيفية نشوء الدلالات من معالجة صرفية خالصة.
الشكل: فجوة الاستيفاء مقابل الاستقراء
مخطط مفاهيمي: يمثل مستوى ثنائي الأبعاد فضاء المشكلات والحلول الممكنة. تمثل سحابة كثيفة من النقاط بيانات التدريب (المشكلات والحلول المقدمة من البشر). تتفوق نماذج الذكاء الاصطناعي التوليدي الحالية في إيجاد حلول داخل هذه السحابة (الاستيفاء). ترمز علامة "X" الحمراء إلى "مشكلة بصيرة" – حيث يقع حلها خارج السحابة. لا يوجد مسار تدرج سلس يؤدي من السحابة إلى "X"؛ الوصول إليها يتطلب قفزة غير متصلة في الاستدلال، لا يمكن للنزول التدرجي تحقيقها. يمثل هذا بصريًا الدَّيْن البشري المنشأ: النموذج محصور داخل سحابة البيانات المقدمة من البشر.
7. الإطار التحليلي: مصفوفة قدرات الذكاء العام الاصطناعي
للانتقال إلى ما وراء المعايير المرجعية المغلوطة، نقترح مصفوفة تقييم نوعية. بدلاً من السؤال "هل اجتاز الاختبار؟"، نسأل "ما طبيعة قدرته؟" لأي مهمة T، يتم التقييم على محورين:
- عمومية الطريقة (G): هل طريقة الحل خاصة بـ T (G=0)، أم قابلة للتطبيق على فئة من المهام (G=1)، أم محايدة للمجال (G=2)؟
- الاستقلالية في صياغة المشكلة (A): هل تم تعريف المشكلة بالكامل من قبل البشر (A=0)، أم تم تحسينها جزئيًا بواسطة النظام (A=1)، أم اكتشفها/عرّفها النظام بنفسه (A=2)؟
مثال حالة (معيار ARC-AGI): النموذج الذي يحفظ حلولًا لأنماط ألغاز ARC محددة يسجل (G=0, A=0). النموذج الذي يتعلم استدلالًا بصريًا عامًا قابلًا للتطبيق على ألغاز ARC غير المرئية يسجل (G=1, A=0). النظام الذي لا يحل ألغاز ARC فحسب، بل يحدد أيضًا فئة جديدة من ألغاز الاستدلال المجردة بمفرده، سيقترب من (G=2, A=2). من المرجح أن تعمل النماذج الأكثر تقدمًا حاليًا في الربع (G=0/1, A=0). يتطلب الذكاء العام الاصطناعي الحقيقي تشغيلًا متسقًا عند (G=2, A=2). يجعل هذا الإطار مغالطة تأكيد النتيجة واضحة: يؤكد الدرجة العالية في الاختبار الأداء فقط، وليس درجات G أو A العالية.
8. الاتجاهات المستقبلية وآفاق البحث
سيحتاج تحقيق الذكاء العام الاصطناعي إلى تحولات نموذجية، وليس مجرد تكبير البنى الحالية.
- نماذج العالم والإدراك المتجسد: يجب أن ينتقل البحث إلى ما وراء التنبؤ النصي السلبي إلى وكلاء نشطين يبنون نماذج داخلية للعالم من خلال التفاعل، كما يظهر في تقدم الروبوتات والمحاكاة (مثل SIMA من DeepMind). هذا يقلل الاعتماد على البيانات اللغوية المُنتقاة.
- الهجائن العصبية-الرمزية: يمكن أن يعالج دمج قوة التعرف على الأنماط للشبكات العصبية مع الاستدلال الصريح والقابل للتكوين للذكاء الاصطناعي الرمزي (كما يستكشفه مختبر MIT-IBM Watson) حاجز "مشكلة البصيرة".
- أهداف التعلم الموجهة ذاتيًا: تطوير خوارزميات الدافع الجوهري التي تسمح للأنظمة بتوليد أهداف تعلمها الخاصة، متجاوزة دوال الخسارة التي يحددها البشر. هذا مجال ناشئ في أبحاث الذكاء الاصطناعي.
- علم التقييم الجديد: إنشاء معايير مرجعية تختبر صراحة العمومية (G) والاستقلالية (A)، ربما من خلال مجموعات تحديات مفتوحة النهاية ومولدة تلقائيًا تستكشف مهارات التعلم الفوقي وصياغة المشكلات.
أكثر "تطبيق" فوري لهذا التحليل يكمن في السياسة والاستثمار: يجب أن تركز اللوائح على الأضرار الملموسة قصيرة المدى من الأنظمة المتحيزة أو غير الموثوقة، وليس على الاستيلاء التخميني للذكاء العام الاصطناعي. يجب توجيه الاستثمار نحو البحث الأساسي الذي يقلل الدَّيْن البشري المنشأ، وليس مجرد تكبير البيانات والمعلمات.
9. منظور المحلل النقدي
الرؤية الأساسية: تعاني صناعة الذكاء الاصطناعي من حالة شديدة من "قصر النظر تجاه المخرجات". نحن مفتونون بالنص الطليق والصور المذهلة، مختلطين بين البراعة الإحصائية والفهم. مصطلح رويتبلات "الدَّيْن البشري المنشأ" هو المصطلح المثالي لهذه التبعية الخفية. إنه الفيل في غرفة الخوادم. كل "إنجاز" هو، عند التدقيق، شهادة على براعة الإنسان في انتقاء البيانات وصياغة المشكلات، وليس ذكاءً مولودًا من الآلة. القصة الحقيقية ليست قوة الذكاء الاصطناعي؛ بل الجهد البشري الهائل، وغالبًا غير المرئي، الذي يجعله يبدو قويًا.
التدفق المنطقي: الحجة بسيطة بشكل مدمر ومحكمة منطقيًا. 1) تعريف الهدف (الذكاء العام الاصطناعي كحل مشكلات عام مستقل). 2) فحص الأداة (الذكاء الاصطناعي التوليدي كمطابق للأنماط على بيانات بشرية). 3) تحديد عدم التطابق (عملية الأداة الأساسية تعتمد على المعالجة المسبقة البشرية). 4) تشخيص الخطأ (الخلط بين مخرجات الأداة ومتطلبات الهدف). 5) كشف العيب النظامي (طرق التقييم التي لا تستطيع التمييز بين الحفظ والفهم). هذا ليس فلسفة؛ إنه مساءلة هندسية أساسية.
نقاط القوة والضعف: قوتها هي نقدها الأساسي. تهاجم فرضية رواية "الذكاء العام الاصطناعي قريب" بأكملها من خلال التشكيك في بنية الأمل ذاتها. عيبها، ربما، هو أنها لا تتعامل بشكل كامل مع حجة النشوء المضادة – إمكانية ظهور قدرات نوعية جديدة (مثل استدلال سلسلة الأفكار) على نطاق واسع بطرق لا نفهمها بعد. ومع ذلك، يرد البحث بشكل صحيح بأن النشوء ليس سحرًا؛ فهو لا يزال مقيدًا بهدف التدريب $\mathcal{L}_{LLM}$. لا يمكن أن تنشأ استقلالية من دالة خسارة ليس لها مصطلح لها.
رؤى قابلة للتنفيذ: بالنسبة لصانعي السياسات: تجاهل ضجيج الخيال العلمي. نظم ما أمامك: خصوصية البيانات، التحيز الخوارزمي، إزاحة العمالة، والتكلفة البيئية للتدريب. "مفتاح إيقاف" لنموذج لا يستطيع ربط حذائه هو مسرحية أمنية. بالنسبة للمستثمرين: كونوا متشككين بشدة من أي شركة يعتمد تقييمها على تحقيق الذكاء العام الاصطناعي. راهنوا على الشركات التي تحل مشكلات محددة وقيمة بذكاء اصطناعي قوي، وليس تلك التي تبيع برامج الذكاء العام الاصطناعي الوهمية. بالنسبة للباحثين: توقفوا عن ملاحقة لوائح المتصدرين في المعايير المرجعية. ابدأوا في تصميم تجارب تحاول عمدًا كسر وهم الفهم لدى نموذجكم. اطلبوا بنى تقلل الدَّيْن البشري المنشأ. الطريق إلى الأمام ليس من خلال المزيد من نفس البيانات، بل من خلال مبادئ تعلم مختلفة جوهريًا. الساعة لا تدق باتجاه الذكاء العام الاصطناعي؛ بل تدق باتجاه اللحظة التي ندرك فيها أننا كنا نحسن الدالة الخاطئة.
10. المراجع
- Roitblat, H. L. (Source PDF). Some things to know about achieving artificial general intelligence.
- Chollet, F. (2019). On the Measure of Intelligence. arXiv preprint arXiv:1911.01547.
- Lu, Y., et al. (2024). [مرجع حول نماذج اللغة الكبيرة التي تتبع التعليمات].
- Harris, J., Harris, T., & Beal, B. (2024). The Gladstone Report. U.S. Department of State.
- Center for AI Safety. (2023). Statement on AI Risk. https://www.safe.ai/work/statement-on-ai-risk
- Future of Life Institute. (2023). Pause Giant AI Experiments: An Open Letter. https://futureoflife.org/open-letter/pause-giant-ai-experiments/
- Harnad, S. (1990). The Symbol Grounding Problem. Physica D: Nonlinear Phenomena, 42(1-3), 335–346.
- Zhu, J., et al. (2017). Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks. Proceedings of the IEEE International Conference on Computer Vision (ICCV). (CycleGAN كمثال على التعلم بدون بيانات مُنتقاة ومزدوجة من البشر – خطوة صغيرة في تقليل شكل من أشكال الدَّيْن البشري المنشأ).
- DeepMind. (2024). SIMA: Generalist AI Agent for 3D Virtual Environments. https://www.deepmind.com/sima (مثال على البحث نحو وكلاء متجسدين يبنون نماذج عالم).