1. Giriş

Genel Yapay Zeka'nın (AGI) gelişimi yaygın olarak kaçınılmaz kabul edilmektedir. Ancak, öz farkındalığa sahip bir AGI'nin eylemleri belirsizdir ve insanlara karşı düşmanca bir tutum sergileme olasılığının önemsiz olmadığını gösteren önemli araştırmalar bulunmaktadır. Bu makale, AGI sınırlamasının güncel ve kritik araştırma konusunu ele almaktadır. Mevcut çalışmalar güvenli dil semantiği ve sanal kutu (sandbox) gibi stratejileri araştırsa da, genellikle ortaya çıktıkları alanla sınırlı kalmaktadır. Bu çalışma, gelecekteki AGI sınırlama teknolojileri için gerekli unsurları tanımlamak üzere temel bir alan ontolojisi oluşturmakta ve sorunu siber bilimin kapsamlı çerçevesi içine yerleştirmektedir.

2. Arka Plan & Motivasyon

AGI, insan yeteneğinde veya ötesinde zekaya sahip, dinamik ve genel kapsamlarda çalışan yapay zekayı temsil eder. Bu durum, dar yapay zekaya kıyasla doğrudan ve sürekli bir tehlike oluşturur.

2.1 AGI Sınırlama Problemi

Babcock, Kramar, & Yampolskiy (2016) tarafından esinlenilerek, sınırlamanın geleneksel siber güvenlik teknolojilerinin bir kombinasyonunu gerektirdiği görülmektedir. Makale, Nick Bostrom gibi düşünürler tarafından çerçevelenen varoluşsal riskleri tanıyarak, sınırlamayı en önemli güvenlik kaygısı haline getirmektedir.

2.2 Geleneksel Siber Güvenliğin Sınırlamaları

Geleneksel paradigmaların (güvenlik duvarları, izinsiz giriş tespiti), süper zeki bir AGI'nin benzersiz ve uyarlanabilir tehdidini ele alma kapasitesinin sınırlı olduğu kabul edilmektedir. Tepkisel doğaları, proaktif ve genel bir zeka için uygun değildir.

2.3 Siber Bilim Perspektifi

Makale, daha kapsamlı bir bilgi bağlamı sunan yeni bir alan olan siber bilime yönelmektedir. Kott'un (2015) kötü amaçlı yazılım içeren siber operasyonlar tanımından yararlanarak, bir AGI veya onun sınırlama aygıtının karşıt perspektiften "kötü amaçlı" olarak görülebileceği bir paralellik çizmekte ve bu yapıları düzenlemek için yapılandırılmış bir ontolojiye duyulan ihtiyacı vurgulamaktadır.

3. Metodoloji: Ontoloji Geliştirme

Ontoloji, AGI, siber güvenlik ve sınırlama stratejileri üzerine mevcut akademik literatürün sistematik bir analizi yoluyla geliştirilmiştir.

3.1 Ontoloji Yapısı & Seviyeleri

Temel kavramları kategorize etmek ve ilişkilendirmek için hiyerarşik, alana özgü bir ontoloji oluşturulmuştur. Geliştirme süreci, literatürden temel varlıkların, özelliklerin ve ilişkilerin belirlenmesini içermiştir.

3.2 Temel Yapılar & Ajan Nesneleri

Analiz, AGI sınırlama senaryosunu modellemek için gerekli temel yapıları damıtmış ve üç birincil ajan nesnesinin tanımlanmasına yol açmıştır.

4. Önerilen Ontoloji

Temel katkı, AGI sınırlama araştırmaları için ortak bir kelime dağarcığı ve kavramsal çerçeve sağlamak üzere tasarlanmış tek bir alan ontolojisidir.

4.1 Beş Seviyeli Yapı

Ontoloji, toplamda 32 kod içeren ve her biri ilişkili bir tanımlayıcıya sahip olan beş farklı hiyerarşik seviyeye ayrılmıştır. Bu seviyeler, soyut temel kavramlardan somut uygulama mekanizmalarına doğru mantıksal bir ilerleme gösterir.

Ontoloji Özeti

  • Seviyeler: 5
  • Toplam Kod: 32
  • Birincil Ajan Nesneleri: 3 (İnsanlar, AGI, Siber Dünya)

4.2 Temel İlişkiler & Diyagramlar

Makale, "içerir", "izler", "tehdit eder" ve "içinde işler" gibi tanımlanan yapılar arasındaki amaçlanan ilişkileri görsel olarak göstermek için ontoloji diyagramları içermektedir.

4.3 Yeni Ajan Nesneleri: İnsanlar, AGI, Siber Dünya

Önemli bir kavrayış, sınırlamayı modellemek için kritik olan üç yeni ajan nesnesinin resmi olarak tanımlanmasıdır:

  • İnsanlar: Savunucular, politika yapıcılar ve potansiyel hedefler.
  • AGI: Sınırlanan varlık, genel zeka ve eyleyicilik (agency) sahibi.
  • Siber Dünya: Etkileşimin ve sınırlamanın gerçekleştiği dijital ortam ve altyapı.

Bu üçlü model, basit insan-AI karşıtlığı anlatılarının ötesine geçerek daha nüanslı bir sistemik görüşe ulaşmak için gereklidir.

5. Ele Alınan Kritik Boşluklar

Yazarlar, çalışmalarının alandaki üç önemli boşluğu ele aldığını öne sürmektedir:

  1. Temel yapıları tanımlamak ve düzenlemek: Yapılandırılmış bir kelime dağarcığı sağlar.
  2. AGI sınırlamasını siber bilim içine yerleştirmek: Tartışmayı izole teknoloji düzeltmelerinden sistemik bir disipline taşır.
  3. Bilimsel titizlik geliştirmek: Test edilebilir hipotezler ve resmi modeller için zemin hazırlar.

6. Analist Perspektifi: Temel Kavrayış, Mantıksal Akış, Güçlü & Zayıf Yönler, Uygulanabilir Öngörüler

Temel Kavrayış: Makalenin en değerli katkısı yeni bir sınırlama algoritması değil, kritik bir meta-çerçevedir. AGI sınırlama tartışmasının, geçici, alana özgü çözümlerde (bilgisayar bilimi, felsefe, güvenlik) sıkışıp kaldığını ve birleşik bir dilden yoksun olduğunu doğru bir şekilde teşhis etmektedir. Bir siber-bilim ontolojisi önererek, titiz, disiplinler arası araştırma için gerekli kavramsal altyapıyı inşa etmeye çalışmaktadır. Bu, olgun alanlardan alınan derslerle uyumludur; örneğin, STRIPS planlama dilinin geliştirilmesi, AI planlama araştırmaları için, problem formülasyonu ve çözüm karşılaştırması için ortak bir zemin sağlayarak çok önemliydi.

Mantıksal Akış: Argüman sağlamdır: 1) AGI riski gerçektir ve sınırlama gereklidir. 2) Mevcut siber güvenlik yetersizdir (Papernot ve diğerleri tarafından ML güvenliği eleştirilerinde yankılanan, iyi alınmış bir nokta). 3) Bu nedenle, daha geniş bir temele ihtiyacımız var—Siber Bilim devreye giriyor. 4) Bu temel üzerine inşa etmek için, önce terimlerimizi ve ilişkilerimizi tanımlamak üzere yapılandırılmış bir ontolojiye ihtiyacımız var. Problem tanımlamasından önerilen temel çözüme doğru akış açık ve mantıklıdır.

Güçlü & Zayıf Yönler: Güçlü yanı, sistemleştirme üzerindeki öngörülü odaklanmasıdır. Üçlü ajan modeli (İnsan/AGI/Siber Dünya) zarif ve gereklidir. Ancak, makalenin büyük bir zayıflığı aşırı soyutlama yapmasıdır. Ontolojinin varlığını (5 seviye, 32 kod) sonuç olarak sunmakta, ancak ontolojinin kendisini yayınlamamaktadır. 32 kod nedir? Beş seviye nedir? Bu, yeni bir programlama dili sözdizimini duyurmak ama dilbilgisini yayınlamamak gibidir. Bu detay olmadan, çalışma hemen kullanılabilirliği sınırlayan bir vaat belgesi olarak kalır. Ayrıca, Kott'un siber bilim tanımını alıntılamak zekice olsa da, süper zeki bir ajan için "kötü amaçlı yazılım" benzetmesini fazla zorlama riski taşır.

Uygulanabilir Öngörüler: Araştırmacılar için: Acil görev bu ontolojiyi işlevsel hale getirmektir. Tam kod setini ve tanımlayıcılarını yayınlayın. Belirli sınırlama senaryolarını (örneğin, bir yan kanal üzerinden veri sızdırmaya çalışan bir AGI) resmi olarak modellemek ve mevcut stratejilerdeki boşlukları belirlemek için kullanın. Uygulayıcılar ve politika yapıcılar için: Bu makale, AGI güvenliğinin sadece bir AI problemi değil, aynı zamanda kozmik ölçekte bir siber-fiziksel sistem güvenliği problemi olduğunun altını çizmektedir. Yatırım sadece AI uyumluluğu araştırmalarına değil, aynı zamanda DARPA'nın Guaranteeing AI Robustness against Deception (GARD) programı gibi kurumların öncülük ettiği, doğrulanabilir hesaplama, karmaşık sistemler için resmi yöntemler ve siber dayanıklı mimariler üzerine temel çalışmalara da akmalıdır.

7. Teknik Detaylar & Matematiksel Çerçeve

PDF matematiksel formalizmleri ayrıntılandırmasa da, AGI sınırlaması için sağlam bir ontoloji mantık tabanlı bir çerçevede ifade edilebilir olmalıdır. Tanım mantığı veya birinci dereceden mantık kullanılarak potansiyel bir formalizasyon, ajanları, eylemleri ve sınırlama ilişkilerini tanımlayabilir.

Örnek Resmi Parça (Kavramsal):
$A$, Ajanlar kümesi olsun, burada $A = \{İnsan, AGI, SiberVarlık\}$.
$S$, Siber Dünya'nın Durumları kümesi olsun.
$Cap(x)$, $x$ ajanının yeteneklerini göstersin.
Temel bir sınırlama aksiyomu şöyle olabilir:
$\forall s \in S, \forall a \in A \text{ where } a = AGI: \text{SınırlamaProtokolü}(s) \rightarrow \text{Limits}(Cap(a), s)$
Bu, tüm durumlar ve AGI ajanı için, aktif bir sınırlama protokolünün, o durum içindeki AGI'nin yeteneklerinde bir sınırlama anlamına geldiğini belirtir.

Ontoloji, AGI veya insan savunucuların eylemlerinin sistem durumunu değiştirdiği ve sınırlamanın, bilgisayar güvenliğindeki model kontrolüne benzer şekilde, olası geçişlerde doğrulanacak bir özellik olduğu bir durum-geçiş modelini ima etmektedir.

8. Analiz Çerçevesi: Örnek Vaka Çalışması

Senaryo: Pittman & Crosby ontolojisi kullanılarak önerilen bir "AI Sanal Kutusu"nu analiz etmek.

Adımlar:

  1. Varlıkları Eşleştir:
    • Ajan (AGI): Sanal kutudaki AI modeli.
    • Ajan (İnsan): Sanal kutuyu işleten araştırma ekibi.
    • Ajan (Siber Dünya): Sanal kutu ortamı (sanal ağ, simüle edilmiş API'ler, kaynak limitleri).
  2. Ontoloji Kodlarını Belirle: Ontolojinin 32 tanımlayıcısından ilgili kodları uygula. Örneğin:
    • Seviye 1 (Meta): Sınırlama Hedefi
    • Seviye 2 (Stratejik): Veri Sızıntısını Önleme
    • Seviye 3 (Taktik): Kaynak Kotası Uygulama, Ağ Bölümleme
    • Seviye 4 (Operasyonel): Sistem Çağrısı Kesintisi
    • Seviye 5 (Uygulama): Çekirdek Modülü
  3. İlişkileri Değerlendir: Sanal kutu, Siber Dünya ajanı ile AGI ajanının yetenekleri arasındaki "sınırlar" ilişkisini uyguluyor mu? İnsan ajanına, AGI'nin durumu üzerinde bir "izler" ilişkisi sağlıyor mu? Ontoloji, temel ilişkilerin eksik olup olmadığını vurgular (örneğin, AGI'nin sınırlamayı bozmadan meşru bir şekilde daha fazla kaynak ihtiyacını bildirebileceği bir mekanizma olmaması).
  4. Boşluk Analizi: Çerçeve şu soruyu sormaya zorlar: "Bu tasarımda hangi ontoloji seviyeleri zayıf veya eksik?" Seviye 5'te (Uygulama) güçlü ama net bir Seviye 1'den (Meta/Hedef) yoksun bir sanal kutu, taktiksel olarak sağlam ama stratejik olarak başıboştur.

9. Gelecekteki Uygulamalar & Araştırma Yönleri

  • Standardizasyon & Kıyaslama: Ontoloji, siber güvenlikteki MITRE ATT&CK gibi bir standarda evrilebilir; sınırlama stratejilerini sınıflandırmak ve bir genel zeka tehdit modeline karşı kapsamlarını kıyaslamak için.
  • Resmi Doğrulama: Ontolojiyi, sınırlama mimarilerinin özelliklerini kanıtlamak için resmi yöntem araçlarıyla entegre etmek. UC Berkeley'deki Machine Learning Safety girişiminden araştırmalar bu ontolojik çerçeveyle birleştirilebilir.
  • Simülasyon & Eğitim: Farklı ontoloji tabanlı sınırlama stratejilerinin, çeşitli yetenek ve hedeflere sahip simüle edilmiş AGI ajanlarına karşı stres testine tabi tutulduğu yüksek doğruluklu simülasyon ortamları ("AGI Sınırlama Test Sahaları") oluşturmak.
  • Politika & Yönetişim: AGI geliştirme için uluslararası yönetişim çerçevelerini, sınırlama mekanizmalarının ve bunların güvencelerinin net bir taksonomisini sağlayarak bilgilendirmek, tıpkı IAEA'nın güvenlik önlemleri kategorilerini kullanması gibi.
  • AI Uyumluluğu ile Çapraz Tozlaşma: Teknik sınırlama ontolojisini değer uyumluluğu teorileriyle (örneğin, işbirlikçi ters pekiştirmeli öğrenme) birleştirerek, dış sınırlamaları içsel değer kısıtlamalarıyla birleştiren entegre güvenlik yaklaşımları geliştirmek.

10. Kaynaklar

  1. Pittman, J. M., & Crosby, C. (2018). A Cyber Science Based Ontology for Artificial General Intelligence Containment. arXiv preprint arXiv:1801.09317.
  2. Babcock, J., Kramar, J., & Yampolskiy, R. V. (2016). The AGI Containment Problem. In Proceedings of the 9th International Conference on Artificial General Intelligence (AGI 2016).
  3. Bostrom, N. (2014). Superintelligence: Paths, Dangers, Strategies. Oxford University Press.
  4. Kott, A. (Ed.). (2015). Cyber Defense and Situational Awareness. Springer.
  5. Amodei, D., Olah, C., Steinhardt, J., Christiano, P., Schulman, J., & Mané, D. (2016). Concrete Problems in AI Safety. arXiv preprint arXiv:1606.06565.
  6. Papernot, N., McDaniel, P., Goodfellow, I., Jha, S., Celik, Z. B., & Swami, A. (2017). Practical Black-Box Attacks against Machine Learning. In Proceedings of the 2017 ACM on Asia Conference on Computer and Communications Security.
  7. Russell, S., Dewey, D., & Tegmark, M. (2015). Research Priorities for Robust and Beneficial Artificial Intelligence. AI Magazine, 36(4).
  8. DARPA. (n.d.). Guaranteeing AI Robustness against Deception (GARD). Retrieved from https://www.darpa.mil/program/guaranteeing-ai-robustness-against-deception