1. Giriş ve Temel Tez

Herbert L. Roitblat'ın çalışmasına dayanan bu analiz, Yapay Genel Zekâ'nın (AGI) yaklaşan gelişi etrafındaki hakim anlatıya karşıt ve eleştirel bir bakış sunmaktadır. Merkezi tez, mevcut ve öngörülebilir Üretken Yapay Zekâ (GenAI) modellerinin, Büyük Dil Modelleri (LLM'ler) de dahil olmak üzere, "antropojenik borç" olarak adlandırılan temel bir kısıt nedeniyle AGI'ye ulaşmada temelde yetersiz olduğunu öne sürmektedir. Bu borç, problem yapılandırma, mimari tasarım ve seçilmiş eğitim verileri için insan girdisine olan ağır ve kaçınılmaz bağımlılıklarını ifade eder. Makale, yapay zekâdan kaynaklanan gerçek riskin süper zekâdan değil, doğal sınırlamalarının insan inançlılığıyla birleşen kötüye kullanımından kaynaklandığını savunmaktadır.

2. Antropojenik Borç Kavramı

Antropojenik borç, modern yapay zekânın neden genel zekâ yolunda olmadığını açıklayan temel kavramsal çerçevedir.

2.1 Tanım ve Bileşenler

Antropojenik borç, üç kritik bağımlılığı kapsar:

  • İyi Yapılandırılmış Problemler: İnsanlar, görevleri yapay zekânın işleyebileceği şekilde çerçevelemelidir.
  • Mimari Tasarım: Sinir ağı yapısı (örn., Transformer) bir insan icadıdır.
  • Seçilmiş Eğitim Verileri: Büyük veri kümeleri insanlar tarafından toplanır, filtrelenir ve etiketlenir.

Bu borç, yapay zekâ sistemlerinin yeni problem çözme paradigmaları yaratmadığı, insan tanımlı sınırlar içinde optimize ettiği anlamına gelir.

2.2 Bir Destek Olarak İnsan Girdisi

GPT-4 gibi modellerin başarısı genellikle yanlış yorumlanır. Roitblat, bu modellerin başarılı olduğunu çünkü insanların temel entelektüel zorlukları zaten çözdüğünü, modelin ise gradyan inişi gibi "basit hesaplamalar" yapmakla kaldığını savunur. Model, genel anlamda bir problem tanımlayıcısı veya çözücüsü değil, güçlü bir desen uygulayıcısıdır.

3. AGI'nın Temel Engelleri

3.1 Dil Deseni Öğrenme Sınırlaması

Mevcut GenAI, her problemi bir dil deseni öğrenme problemi olarak ele alır. Kodlama, görüntü oluşturma veya akıl yürütme olsun, altta yatan mekanizma, eğitim verilerindeki istatistiksel korelasyonlara dayanarak bir sonraki token'ı (kelime, piksel yaması) tahmin etmektir. Bu yaklaşım, dilsel olmayan, soyut veya önceki insan ifadelerinde kapsanmayan yeni akıl yürütme gerektiren problemler için doğası gereği sınırlıdır.

3.2 Gerçek Otonomi Eksikliği

AGI, otonomi gerektirir—kendi hedeflerini belirleme, yeni problemler tanımlama ve açık talimat olmadan beceriler edinme yeteneği. Lu ve diğerlerinin (2024) belirttiği gibi, LLM'ler sadece talimatları takip eder. Genel zekânın temel taşı olan otonom beceri ustalığı için içsel dürtü veya yetenekten yoksundurlar.

3.3 Problem Tipolojisi Sorunu

Kritik bir engel, birden fazla problem tipini tanıyamamaktır. "İçgörü problemleri" (örn., Dokuz Nokta problemi) gibi bazı problemler, artımlı optimizasyon veya veriden desen eşleştirme ile çözülemez. Bunlar, problem uzayının yeniden yapılandırılmasını gerektirir—mevcut gradyan tabanlı öğrenme sistemlerinde bulunmayan bir yetenek.

4. Kusurlu Değerlendirme Paradigmaları

4.1 Kıyaslama Yetersizliği

ARC-AGI gibi kıyaslamalar, genelliği ölçmek için yetersizdir. Bir testi geçmek, onun nasıl geçildiğini ortaya koymaz. Bir model, dar, teste özgü bir hile (örn., ezberleme) veya genel bir akıl yürütme ilkesi kullanabilir. Kıyaslamalar performansı ölçer, altta yatan yeteneğin genelliğini değil.

4.2 Sonucu Doğrulama Yanılgısı

Makale, yapay zekâ değerlendirmesindeki temel bir mantık hatasını vurgular: sonucu doğrulama yanılgısı. Form şudur: Bir varlık AGI'ye sahipse, T testini geçer. Varlık T testini geçer. O halde, AGI'ye sahiptir. Bu bir yanılgıdır. Bir görevdeki başarı, mantıksal olarak genel zekânın kullanıldığını ima etmez, çünkü aynı çıktı birçok farklı (ve daha az yetenekli) mekanizma tarafından üretilebilir.

5. AGI Heyecanı vs. Gerçeklik

AGI Tartışmasında Temel Metrikler

  • %88 – Gerekli AGI yeteneklerinin tahmini olarak zaten elde edilen kısmı (Thompson, 2025).
  • 33.000+ – Future of Life Institute'ün LLM geliştirmesini durduran açık mektubundaki imza sayısı (2023).
  • 2025 – Paris'teki Yapay Zekâ Eylem Zirvesi'nin yılı.

5.1 Tahminler ve İddialar

Manzara, sektör liderlerinden (Altman, 2025; Leike & Sutskever, 2023) yakın vadeli AGI'ye dair (genellikle "yeteneklerin %88'i" gibi nicelendirilen) cesur tahminlerle işaretlenmiştir. Bunlar, "AI güvenlik saati" gibi sembolik uyarılarla tezat oluşturur.

5.2 Artan Endişeler ve Düzenleyici Tepki

Tahminler önemli endişe tetiklemiştir. Center for AI Safety (2023) açıklaması, yapay zekâ riskini pandemiler ve nükleer savaşla eşdeğer tutar. ABD Dışişleri Bakanlığı tarafından görevlendirilen Gladstone Raporu (Harris ve diğerleri, 2024), laboratuvar rekabetinden kaynaklanan "KİT benzeri" riskler konusunda uyarır. Bu, Kaliforniya'nın "acil durdurma düğmesi" zorunluluğu ile önerilen SB-1047'si gibi düzenleyici çabaları teşvik etmiştir, ancak veto edilmiştir.

6. Teknik Analiz ve Matematiksel Çerçeve

Mevcut modellerin sınırlaması, kısmen optimizasyon hedefleri merceğinden anlaşılabilir. Standart bir LLM, bir bağlam $x_{

$$\mathcal{L}_{LLM} = -\sum_{t} \log P(x_t | x_{

Burada $\theta$ model parametreleridir. Bu hedef, modeli eğitim verisi manifoldu içinde enterpolasyon konusunda uzman olmaya zorlar. Ancak AGI, ekstrapolasyon ve soyutlama—eğitim örneklerinin konveks kabuğunun dışındaki problemleri çözmek—gerektirir. "İçgörü problemi" engeli, bir uzay $S$'de bir çözüm $s^*$ bulmak olarak modellenebilir; burada problem $p$'den $s^*$'a giden yol, veriden öğrenilmeyen türevlenemez bir dönüşüm $T$ gerektirir:

$$s^* = T(p), \quad \text{burada } \nabla_\theta T \text{ tanımsız veya sıfırdır.}$$

Gradyan tabanlı öğrenme ($\theta \leftarrow \theta - \eta \nabla_\theta \mathcal{L}$) böyle bir $T$'yi keşfedemez. Bu, semantiğin saf sözdizimi manipülasyonundan nasıl ortaya çıkabileceğini sorgulayan "Sembol Temellendirme Problemi" (Harnad, 1990) gibi klasik yapay zekâ argümanlarıyla uyumludur.

Şekil: Enterpolasyon vs. Ekstrapolasyon Açığı

Kavramsal Diyagram: 2B bir düzlem, olası problemler ve çözümler uzayını temsil eder. Noktalardan oluşan yoğun bir bulut, eğitim verilerini (insan tarafından sağlanan problemler ve çözümler) temsil eder. Mevcut GenAI modelleri, bu bulut içinde çözümler bulmada üstündür (enterpolasyon). Kırmızı "X", bir "içgörü problemi"ni işaret eder—çözümü bulutun dışındadır. Buluttan "X"e giden düzgün bir gradyan yolu yoktur; ona ulaşmak, gradyan inişinin başaramayacağı, akıl yürütmede süreksiz bir sıçrama gerektirir. Bu, antropojenik borcu görsel olarak temsil eder: model, insan tarafından sağlanan veri bulutuyla sınırlıdır.

7. Analitik Çerçeve: AGI Yetenek Matrisi

Yanıltıcı kıyaslamanın ötesine geçmek için nitel bir değerlendirme matrisi öneriyoruz. "Testi geçti mi?" diye sormak yerine, "Yeteneklerinin doğası nedir?" diye soruyoruz. Herhangi bir T görevi için iki eksen boyunca değerlendirin:

  1. Yöntemin Genelliği (G): Çözüm yöntemi T'ye özgü mü (G=0), bir görev sınıfına uygulanabilir mi (G=1), yoksa alandan bağımsız mı (G=2)?
  2. Problem Formülasyonunda Otonomi (A): Problem tamamen insanlar tarafından mı tanımlandı (A=0), kısmen sistem tarafından mı iyileştirildi (A=1), yoksa sistem tarafından mı keşfedildi/tanımlandı (A=2)?

Vaka Örneği (ARC-AGI Kıyaslaması): Belirli ARC bulmaca desenlerinin çözümlerini ezberleyen bir model (G=0, A=0) puanı alır. Görülmemiş ARC bulmacalarına uygulanabilir genel bir görsel akıl yürütme buluşsal yöntemi öğrenen bir model (G=1, A=0) puanı alır. Sadece ARC bulmacalarını çözmekle kalmayıp, kendi başına yeni bir soyut akıl yürütme bulmacası sınıfı tanımlayan bir sistem (G=2, A=2)'ye yaklaşır. Mevcut SOTA modeller muhtemelen (G=0/1, A=0) kadranında çalışır. Gerçek AGI, (G=2, A=2)'de tutarlı çalışma gerektirir. Bu çerçeve, sonucu doğrulama yanılgısını açık hale getirir: yüksek bir test puanı sadece performansı doğrular, yüksek G veya A puanlarını değil.

8. Gelecek Yönelimler ve Araştırma Görünümü

AGI'ye ulaşmak, sadece mevcut mimarileri ölçeklendirmek değil, paradigma kaymaları gerektirecektir.

  • Dünya Modelleri ve Somutlaşmış Biliş: Araştırma, pasif metin tahmininin ötesine, robotik ve simülasyondaki ilerlemelerde görüldüğü gibi (örn., DeepMind'ın SIMA'sı), etkileşim yoluyla dünyanın iç modellerini oluşturan aktif ajanlara geçmelidir. Bu, seçilmiş dilsel verilere bağımlılığı azaltır.
  • Nöro-Sembolik Hibritler: Sinir ağlarının desen tanıma gücünü, sembolik yapay zekânın açık, birleştirilebilir akıl yürütmesiyle (MIT-IBM Watson Lab tarafından araştırıldığı gibi) entegre etmek, "içgörü problemi" engelini ele alabilir.
  • Kendi Kendini Yönlendiren Öğrenme Hedefleri: Sistemlerin kendi öğrenme hedeflerini oluşturmasına izin veren, insan tanımlı kayıp fonksiyonlarının ötesine geçen içsel motivasyon algoritmaları geliştirmek. Bu, yapay zekâ araştırmasında yeni bir alandır.
  • Yeni Değerlendirme Bilimi: Genelliği (G) ve otonomiyi (A) açıkça test eden, belki meta-öğrenme ve problem formülasyonu becerilerini araştıran açık uçlu, otomatik olarak oluşturulan zorluk paketleri aracılığıyla kıyaslamalar yaratmak.

Bu analizin en acil "uygulaması" politika ve yatırım alanındadır: düzenlemeler, önyargılı veya güvenilmez sistemlerden kaynaklanan somut, kısa vadeli zararlara odaklanmalı, spekülatif AGI ele geçirmesine değil. Yatırım, sadece veri ve parametreleri ölçeklendirmeye değil, antropojenik borcu azaltan temel araştırmalara yönlendirilmelidir.

9. Eleştirel Analist Perspektifi

Temel İçgörü: Yapay zekâ endüstrisi, şiddetli bir "çıktı miyopisi" vakasından muzdariptir. Akıcı metinler ve çarpıcı görüntülerle büyüleniyor, istatistiksel beceriyi anlama ile karıştırıyoruz. Roitblat'ın "antropojenik borç" terimi, bu gizli bağımlılık için mükemmel bir terimdir. Sunucu odasındaki fil gibidir. Her "çığır açan gelişme", incelendiğinde, makine doğumlu zekânın değil, veri küratörlüğü ve problem çerçevelemedeki insan dehasının bir kanıtıdır. Gerçek hikâye, yapay zekânın gücü değil; onu güçlü gösteren muazzam, genellikle görünmez insan emeğidir.

Mantıksal Akış: Argüman yıkıcı derecede basit ve mantıksal olarak sağlamdır. 1) Hedefi tanımla (AGI'yi otonom, genel problem çözme olarak). 2) Aracı incele (GenAI'yi insan verisi üzerinde bir desen eşleştirici olarak). 3) Uyumsuzluğu belirle (aracın temel işleyişi insan ön işlemeye bağımlıdır). 4) Hatayı teşhis et (aracın çıktısını hedefin gereklilikleriyle karıştırmak). 5) Sistemsel kusuru ortaya çıkar (ezberleme ve anlama arasında ayrım yapamayan değerlendirme yöntemleri). Bu felsefe değil; temel mühendislik sorumluluğudur.

Güçlü ve Zayıf Yönler: Gücü, temel eleştirisidir. "AGI yakın" anlatısının tüm umut mimarisini sorgulayarak öncülüne saldırır. Belki de zayıf yönü, ortaya çıkış karşı argümanıyla tam olarak etkileşime girmemesidir—niteliksel olarak yeni yeteneklerin (zincirleme düşünme gibi) henüz anlamadığımız şekillerde ölçekte ortaya çıkma olasılığı. Ancak, makale doğru bir şekilde yanıt verir: ortaya çıkış sihir değildir; hâlâ eğitim hedefi $\mathcal{L}_{LLM}$ ile sınırlıdır. Onun için bir terimi olmayan bir kayıp fonksiyonundan otonomi ortaya çıkaramazsınız.

Uygulanabilir İçgörüler: Politika Yapıcılar İçin: Bilimkurgu heyecanını görmezden gelin. Önünüzdeki şeyleri düzenleyin: veri gizliliği, algoritmik önyargı, işgücü yer değiştirme ve eğitimin çevresel maliyeti. Kendi ayakkabı bağcıklarını bağlayamayan bir model için "acil durdurma düğmesi" güvenlik tiyatrosudur. Yatırımcılar İçin: Değerlemesi AGI'ye ulaşmaya dayanan herhangi bir şirkete derin şüpheyle yaklaşın. AGI buhar yazılımı satanlara değil, sağlam yapay zekâ ile spesifik, değerli problemler çözen şirketlere bahse girin. Araştırmacılar İçin: Kıyaslama liderlik tablolarının peşinden koşmayı bırakın. Modelinizin anlama yanılsamasını kasıtlı olarak kırmaya çalışan deneyler tasarlamaya başlayın. Antropojenik borcu en aza indiren mimarileri takip edin. İleriye giden yol, aynı veriden daha fazlası değil, temelden farklı öğrenme ilkeleri aracılığıyladır. Saat AGI'ye doğru geri saymıyor; yanlış fonksiyonu optimize ettiğimizi fark ettiğimiz ana doğru geri sayıyor.

10. Kaynaklar

  1. Roitblat, H. L. (Kaynak PDF). Yapay genel zekâya ulaşmak hakkında bilinmesi gereken bazı şeyler.
  2. Chollet, F. (2019). Zekânın Ölçüsü Üzerine. arXiv preprint arXiv:1911.01547.
  3. Lu, Y., ve diğerleri. (2024). [LLM'lerin talimatları takip etmesi üzerine referans].
  4. Harris, J., Harris, T., & Beal, B. (2024). Gladstone Raporu. ABD Dışişleri Bakanlığı.
  5. Center for AI Safety. (2023). Yapay Zekâ Riski Üzerine Açıklama. https://www.safe.ai/work/statement-on-ai-risk
  6. Future of Life Institute. (2023). Dev Yapay Zekâ Deneylerini Durdurun: Bir Açık Mektup. https://futureoflife.org/open-letter/pause-giant-ai-experiments/
  7. Harnad, S. (1990). Sembol Temellendirme Problemi. Physica D: Nonlinear Phenomena, 42(1-3), 335–346.
  8. Zhu, J., ve diğerleri. (2017). Eşleştirilmemiş Görüntüden Görüntüye Çeviri için Döngü-Tutarlı Çekişmeli Ağlar Kullanımı. IEEE Uluslararası Bilgisayarlı Görü Konferansı (ICCV) Bildirileri. (Eşleştirilmiş, insan tarafından küratörlük yapılmış veri olmadan öğrenmenin bir örneği olarak CycleGAN—antropojenik borcun bir formunu azaltmada küçük bir adım).
  9. DeepMind. (2024). SIMA: 3B Sanal Ortamlar için Genelci Yapay Zekâ Ajanı. https://www.deepmind.com/sima (Somutlaşmış, dünya modeli oluşturan ajanlara doğru ilerleyen araştırma örneği).