1. Pengenalan & Tesis Teras
Analisis ini, berdasarkan kerja Herbert L. Roitblat, mempersembahkan pandangan kontrarian dan kritis terhadap naratif lazim mengenai ketibaan Kecerdasan Buatan Umum (AGI) yang hampir tiba. Tesis teras menyatakan bahawa model Kecerdasan Buatan Generatif (GenAI) semasa dan yang boleh dijangka, termasuk Model Bahasa Besar (LLM), pada dasarnya tidak mampu mencapai AGI disebabkan oleh kekangan asas yang dinamakan "hutang antropogenik." Hutang ini merujuk kepada kebergantungan berat dan tidak dapat dielakkan mereka terhadap input manusia untuk struktur masalah, reka bentuk seni bina, dan data latihan terkurasi. Kertas kerja ini berhujah bahawa risiko sebenar daripada AI bukanlah berasal daripada kecerdasan super, tetapi daripada penyalahgunaan batasan semula jadinya yang digabungkan dengan kepercayaan mudah manusia.
2. Konsep Hutang Antropogenik
Hutang antropogenik adalah kerangka konsep teras yang menerangkan mengapa AI moden tidak berada di landasan menuju kecerdasan umum.
2.1 Definisi dan Komponen
Hutang antropogenik merangkumi tiga kebergantungan kritikal:
- Masalah Berstruktur Baik: Manusia mesti membingkaikan tugas dengan cara yang boleh diproses oleh AI.
- Reka Bentuk Seni Bina: Struktur rangkaian neural (contohnya, Transformer) adalah ciptaan manusia.
- Data Latihan Terkurasi: Set data besar dikumpul, ditapis, dan dilabel oleh manusia.
Hutang ini bermakna sistem AI tidak mencipta paradigma penyelesaian masalah baharu tetapi mengoptimumkan dalam sempadan yang ditakrifkan oleh manusia.
2.2 Input Manusia sebagai Tongkat
Kejayaan model seperti GPT-4 sering disalah tafsir. Roitblat berhujah mereka berjaya kerana manusia telah menyelesaikan cabaran intelektual teras, meninggalkan model untuk melaksanakan "pengiraan mudah" seperti penurunan kecerunan. Model tersebut adalah pengguna corak yang berkuasa, bukan pendefinisi atau penyelesai masalah dalam erti kata umum.
3. Halangan Asas kepada AGI
3.1 Batasan Pembelajaran Corak Bahasa
GenAI semasa menganggap setiap masalah sebagai masalah pembelajaran corak bahasa. Sama ada ia pengaturcaraan, penjanaan imej, atau penaakulan, mekanisme asasnya adalah meramalkan token seterusnya (perkataan, tampalan piksel) berdasarkan korelasi statistik dalam data latihan. Pendekatan ini secara semula jadi terbatas untuk masalah yang memerlukan penaakulan bukan linguistik, abstrak, atau baharu yang tidak terkandung dalam ekspresi manusia sebelumnya.
3.2 Kekurangan Autonomi Sebenar
AGI memerlukan autonomi—keupayaan untuk menetapkan matlamat sendiri, mentakrifkan masalah baharu, dan memperoleh kemahiran tanpa arahan eksplisit. Seperti yang dinyatakan oleh Lu et al. (2024), LLM hanya mengikut arahan. Mereka kekurangan dorongan intrinsik atau keupayaan untuk penguasaan kemahiran autonomi, yang merupakan asas kecerdasan umum.
3.3 Masalah Tipologi Masalah
Satu halangan kritikal adalah kegagalan untuk mengenali pelbagai jenis masalah. Sesetengah masalah, seperti "masalah wawasan" (contohnya, masalah Sembilan-Titik), tidak boleh diselesaikan oleh pengoptimuman berperingkat atau pemadanan corak daripada data. Mereka memerlukan penyusunan semula ruang masalah—keupayaan yang tiada dalam sistem pembelajaran berasaskan kecerunan semasa.
4. Paradigma Penilaian yang Cacat
4.1 Ketidakcukupan Penanda Aras
Penanda aras seperti ARC-AGI tidak mencukupi untuk mengukur keumuman. Lulus ujian tidak mendedahkan bagaimana ia diluluskan. Model boleh menggunakan helah sempit khusus ujian (contohnya, penghafalan) atau prinsip penaakulan umum. Penanda aras mengukur prestasi, bukan keumuman asas keupayaan tersebut.
4.2 Kesesatan Mengesahkan Akibat
Kertas kerja ini mengetengahkan kesalahan logik utama dalam penilaian AI: mengesahkan akibat. Bentuknya adalah: Jika sesuatu entiti mempunyai AGI, ia akan lulus ujian T. Entiti itu lulus ujian T. Oleh itu, ia mempunyai AGI. Ini adalah kesesatan. Kejayaan dalam sesuatu tugas tidak secara logiknya membayangkan penggunaan kecerdasan umum, kerana output yang sama boleh dihasilkan oleh banyak mekanisme berbeza (dan kurang berkebolehan).
5. Gembar-gembur AGI vs. Realiti
Metrik Utama dalam Perdebatan AGI
- 88% – Anggaran pecahan keupayaan AGI yang diperlukan telah dicapai (Thompson, 2025).
- 33,000+ – Tandatangan pada surat terbuka Future of Life Institute untuk menjeda pembangunan LLM (2023).
- 2025 – Tahun Sidang Kemuncak Tindakan Kecerdasan Buatan di Paris.
5.1 Ramalan dan Dakwaan
Landskap ini ditandai dengan ramalan berani daripada pemimpin industri (Altman, 2025; Leike & Sutskever, 2023) mengenai AGI jangka pendek, sering dikuantifikasi (contohnya, "88% keupayaan"). Ini dibezakan dengan amaran simbolik seperti "jam keselamatan AI."
5.2 Kebimbangan Meningkat dan Tindak Balas Pengawalseliaan
Ramalan telah mencetuskan kebimbangan besar. Kenyataan Pusat Keselamatan AI (2023) menyamakan risiko AI dengan pandemik dan perang nuklear. Laporan Gladstone (Harris et al., 2024) yang ditugaskan oleh Jabatan Negara AS memberi amaran tentang risiko "seperti WMD" yang didorong oleh persaingan makmal. Ini telah mendorong usaha pengawalseliaan, seperti cadangan SB-1047 California dengan mandat "suis mati," walaupun ia telah diveto.
6. Analisis Teknikal & Kerangka Matematik
Batasan model semasa boleh difahami sebahagiannya melalui objektif pengoptimuman mereka. LLM piawai dilatih untuk memaksimumkan kebarangkalian token seterusnya $x_t$ diberikan konteks $x_{
$$\mathcal{L}_{LLM} = -\sum_{t} \log P(x_t | x_{
di mana $\theta$ adalah parameter model. Objektif ini memaksa model menjadi pakar dalam interpolasi dalam manifold data latihan. Walau bagaimanapun, AGI memerlukan ekstrapolasi dan abstraksi—menyelesaikan masalah di luar konveks hull contoh latihan. Halangan "masalah wawasan" boleh dimodelkan sebagai mencari penyelesaian $s^*$ dalam ruang $S$, di mana laluan dari masalah $p$ ke $s^*$ memerlukan transformasi tidak boleh beza $T$ yang tidak dipelajari dari data:
$$s^* = T(p), \quad \text{di mana } \nabla_\theta T \text{ tidak ditakrifkan atau sifar.}$$
Pembelajaran berasaskan kecerunan ($\theta \leftarrow \theta - \eta \nabla_\theta \mathcal{L}$) tidak dapat menemui $T$ sedemikian. Ini selaras dengan hujah dari AI klasik, seperti "Masalah Pengikatan Simbol" (Harnad, 1990), yang mempersoalkan bagaimana semantik boleh timbul daripada manipulasi sintaks tulen.
Rajah: Jurang Interpolasi vs. Ekstrapolasi
Gambarajah Konseptual: Satah 2D mewakili ruang masalah dan penyelesaian yang mungkin. Awan titik padat mewakili data latihan (masalah dan penyelesaian yang disediakan manusia). Model GenAI semasa cemerlang dalam mencari penyelesaian dalam awan ini (interpolasi). "X" merah menandakan "masalah wawasan"—penyelesaiannya terletak di luar awan. Tiada laluan kecerunan licin membawa dari awan ke "X"; mencapainya memerlukan lonjakan penaakulan tak selanjar, yang penurunan kecerunan tidak dapat capai. Ini mewakili secara visual hutang antropogenik: model terbatas pada awan data yang disediakan manusia.
7. Kerangka Analisis: Matriks Keupayaan AGI
Untuk melangkah melampaui penanda aras yang sesat, kami mencadangkan matriks penilaian kualitatif. Daripada bertanya "Adakah ia lulus ujian?", kami bertanya "Apakah sifat keupayaannya?" Untuk sebarang tugas T, nilai sepanjang dua paksi:
- Keumuman Kaedah (G): Adakah kaedah penyelesaian khusus kepada T (G=0), boleh digunakan untuk kelas tugas (G=1), atau bebas domain (G=2)?
- Autonomi dalam Perumusan Masalah (A): Adakah masalah ditakrifkan sepenuhnya oleh manusia (A=0), diperhalusi sebahagian oleh sistem (A=1), atau ditemui/ditakrifkan sendiri oleh sistem (A=2)?
Contoh Kes (Penanda Aras ARC-AGI): Model yang menghafal penyelesaian kepada corak teka-teki ARC tertentu mendapat skor (G=0, A=0). Model yang mempelajari heuristik penaakulan visual umum yang boleh digunakan untuk teka-teki ARC yang belum dilihat mendapat skor (G=1, A=0). Sistem yang bukan sahaja menyelesaikan teka-teki ARC tetapi juga mengenal pasti kelas baharu teka-teki penaakulan abstrak sendiri akan menghampiri (G=2, A=2). Model SOTA semasa berkemungkinan beroperasi dalam kuadran (G=0/1, A=0). AGI sebenar memerlukan operasi konsisten pada (G=2, A=2). Kerangka ini menjadikan kesesatan mengesahkan akibat jelas: skor ujian tinggi hanya mengesahkan prestasi, bukan skor G atau A tinggi.
8. Hala Tuju Masa Depan & Prospek Penyelidikan
Mencapai AGI akan memerlukan anjakan paradigma, bukan sekadar penskalaan seni bina semasa.
- Model Dunia dan Kognisi Berbadan: Penyelidikan mesti bergerak melampaui ramalan teks pasif kepada agen aktif yang membina model dalaman dunia melalui interaksi, seperti yang dilihat dalam kemajuan robotik dan simulasi (contohnya, SIMA DeepMind). Ini mengurangkan kebergantungan pada data linguistik terkurasi.
- Hibrid Neuro-Simbolik: Mengintegrasikan kekuatan pengecaman corak rangkaian neural dengan penaakulan eksplisit dan boleh digabung AI simbolik (seperti yang diterokai oleh Makmal MIT-IBM Watson) boleh menangani halangan "masalah wawasan."
- Objektif Pembelajaran Berarah Sendiri: Membangunkan algoritma motivasi intrinsik yang membolehkan sistem menjana matlamat pembelajaran sendiri, bergerak melampaui fungsi kerugian yang ditakrifkan manusia. Ini adalah bidang baru dalam penyelidikan AI.
- Sains Penilaian Baharu: Mencipta penanda aras yang secara eksplisit menguji keumuman (G) dan autonomi (A), mungkin melalui suite cabaran terbuka, dijana secara automatik yang menyiasat kemahiran meta-pembelajaran dan perumusan masalah.
"Aplikasi" paling segera analisis ini adalah dalam dasar dan pelaburan: peraturan harus memberi tumpuan kepada bahaya konkrit, jangka pendek daripada sistem berat sebelah atau tidak boleh dipercayai, bukan pengambilalihan AGI spekulatif. Pelaburan harus diarahkan ke arah penyelidikan asas yang mengurangkan hutang antropogenik, bukan sekadar ke arah penskalaan data dan parameter.
9. Perspektif Penganalisis Kritis
Wawasan Teras: Industri AI mengalami kes "miopia output" yang teruk. Kami terpesona dengan teks yang lancar dan imej yang menakjubkan, tersilap menganggap kehebatan statistik sebagai pemahaman. "Hutang antropogenik" Roitblat adalah istilah sempurna untuk kebergantungan tersembunyi ini. Ia adalah gajah dalam bilik pelayan. Setiap "kejayaan" adalah, setelah diperiksa, bukti kepintaran manusia dalam pengurusan data dan pembingkaian masalah, bukan kecerdasan yang lahir dari mesin. Cerita sebenar bukanlah kuasa AI; ia adalah tenaga kerja manusia yang besar, sering tidak kelihatan, yang menjadikannya kelihatan berkuasa.
Aliran Logik: Hujahnya sangat mudah dan logiknya kukuh. 1) Takrifkan matlamat (AGI sebagai penyelesaian masalah autonomi dan umum). 2) Periksa alat (GenAI sebagai pemadan corak pada data manusia). 3) Kenal pasti ketidakpadanan (operasi teras alat bergantung pada pra-pemprosesan manusia). 4) Diagnosis kesalahan (mengelirukan output alat dengan keperluan matlamat). 5) Dedahkan kecacatan sistemik (kaedah penilaian yang tidak dapat membezakan antara penghafalan dan pemahaman). Ini bukan falsafah; ia adalah akauntabiliti kejuruteraan asas.
Kekuatan & Kelemahan: Kekuatannya adalah kritikan asasnya. Ia menyerang premis keseluruhan naratif "AGI hampir tiba" dengan mempersoalkan seni bina harapan itu sendiri. Kelemahannya, mungkin, adalah ia tidak sepenuhnya melibatkan hujah balas daripada kemunculan—kemungkinan keupayaan kualitatif baharu (seperti penaakulan rantai-pemikiran) muncul pada skala dengan cara yang kita belum fahami. Walau bagaimanapun, kertas kerja itu dengan betul membalas bahawa kemunculan bukanlah sihir; ia masih terikat oleh objektif latihan $\mathcal{L}_{LLM}$. Anda tidak boleh memunculkan autonomi daripada fungsi kerugian yang tidak mempunyai istilah untuknya.
Wawasan Boleh Tindak: Untuk Pembuat Dasar: Abaikan gembar-gembur fiksyen sains. Kawal apa yang di hadapan anda: privasi data, berat sebelah algoritma, penggantian tenaga kerja, dan kos persekitaran latihan. "Suis mati" untuk model yang tidak boleh mengikat kasutnya sendiri adalah teater keselamatan. Untuk Pelabur: Bersikap sangat skeptikal terhadap mana-mana syarikat yang penilaiannya berdasarkan pencapaian AGI. Pertaruh pada syarikat yang menyelesaikan masalah khusus, berharga dengan AI yang kukuh, bukan mereka yang menjual vaporware AGI. Untuk Penyelidik: Berhenti mengejar papan pendahulu penanda aras. Mulakan mereka bentuk eksperimen yang sengaja cuba memecahkan ilusi pemahaman model anda. Kejar seni bina yang meminimumkan hutang antropogenik. Jalan ke hadapan bukan melalui lebih banyak data yang sama, tetapi melalui prinsip pembelajaran yang berbeza secara asas. Jam tidak berdetik ke arah AGI; ia berdetik ke arah saat kita sedar kita telah mengoptimumkan fungsi yang salah.
10. Rujukan
- Roitblat, H. L. (PDF Sumber). Some things to know about achieving artificial general intelligence.
- Chollet, F. (2019). On the Measure of Intelligence. arXiv preprint arXiv:1911.01547.
- Lu, Y., et al. (2024). [Rujukan mengenai LLM mengikut arahan].
- Harris, J., Harris, T., & Beal, B. (2024). The Gladstone Report. U.S. Department of State.
- Center for AI Safety. (2023). Statement on AI Risk. https://www.safe.ai/work/statement-on-ai-risk
- Future of Life Institute. (2023). Pause Giant AI Experiments: An Open Letter. https://futureoflife.org/open-letter/pause-giant-ai-experiments/
- Harnad, S. (1990). The Symbol Grounding Problem. Physica D: Nonlinear Phenomena, 42(1-3), 335–346.
- Zhu, J., et al. (2017). Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks. Proceedings of the IEEE International Conference on Computer Vision (ICCV). (CycleGAN sebagai contoh pembelajaran tanpa data berpasangan, terkurasi manusia—satu langkah kecil dalam mengurangkan satu bentuk hutang antropogenik).
- DeepMind. (2024). SIMA: Generalist AI Agent for 3D Virtual Environments. https://www.deepmind.com/sima (Contoh penyelidikan bergerak ke arah agen berbadan, pembina model dunia).