Ön Açıklama: Gelecekte, insan seviyesinde bir YZ'ye bir görev verildiğinde, durumun ne olacağıyla ilgili iki basitleştirilmiş örnek veriyor yazar. “Ataş yap” komutu verildiğinde neler olabileceğini anlatıyor. Ardından “kazanı suyla doldur” komutu verildiğinde neler olabileceğini anlatıyor.
İnsan düzeyinde YZ’ye görünüşte zararsız bir komut verildiğini hayal edin: Ataş yapmak. Ne yapabilir ki? Ataş yaparak işe koyulabilir. Küçük bir kalıp makinesi oluşturup dakikada birkaç düzine ataş üretebilir. Bundan çok daha verimli olabileceğini bilecek kadar zekidir ve yapabileceği ataş sayısını maksimize etmek isterse küçük bir kalıptan daha fazlasına gereksinim duyacaktır. Malzemeleri onun yerine daha büyük bir fabrika kurmak için kullanabilir böylece dakikada binlerce ataş yapar. Mümkün olan en fazla sayıda ataş yapmak isterse bu kez bunun nasıl yapılabileceğine dair becerisini geliştirmek isteyebilir ve kaynaklarının bir kısmını yeni işlemciler oluşturmaya, kendi kodunu geliştirmeye, RAM’ini yükseltmeye vb. şeylere harcamak isteyebilir.
Bunun nereye gittiğini görüyorsunuz. Ataş maksimize edicinin varacağı nokta, her bir atomun ataşa, ataş üreten makinelere, en iyi biçimde ataş üretme yolunu araştıran bilgisayarlara veya aldıkları şube kurma komutuyla Proxima Centauri’ye19 doğru ışık hızında yol alan, kendini kopyalayan uzay roketlerine dönüştüğü bir Güneş Sistemi’dir. Uysal görünen YZ’nize, “Git ataş yap,” dediğinizde kastettiğiniz bu değildi ama söylediğiniz buydu.
Yorum: YZ'nin tüm Güneş Sistemini ataşlara dönüştürmesini sağlayacak aşırı bir zekaya ulaşması gerçekçi
değildir. O kadar akıllı olabileceğini varsaysak bile Güneş
Sistemini ataşlara dönüştürmemesi gerektiğini zaten daha kolay
fark ederdi. :-)
...
Sihirbazın Çırağı’nda hem Mickey Fare versiyonu hem de Goethe’nin şiirinde, ki aslında 2.000 yıllık bir Yunan öyküsü olan Philopseudes’e dayanır, çırağa kuyudan kovayla su taşıyarak bir kazanı doldurması söylenir. Fakat çırak –basit olması için Disney versiyonunu kullanıp Mickey diyelim– bu işi sıkıcı ve yorucu bulur. Büyücü atölyesinden ayrıldığında Mickey onun sihirli şapkasını ödünç alır ve bir süpürgeye kazanı onun yerine doldurması için büyü yapar. Mickey işi devretmenin mutluluğuyla sandalyede uykuya dalarken süpürgede küçük kollar belirir, iki eline de birer kova alıp kuyuya doğru yola çıkar. Bir süre sonra Mickey, o uyurken süpürgenin durmadan taşıdığı suyun oluşturduğu sele düşerek uyanır.
Yorum: Bu da ataş yapma fikrini
güçlendirmek için kullanılmış. YZ kendini geliştirecek.
Kendisinden daha zeki yeni YZ tasarlayacak. Görevi hızla yapmaya
başlayacak. Kazan dolacak. Ama YZ durmayacak. Her yer sel olacak.
Ama bir kazanın dolduğunu fark edebileceği için o insan
seviyesini geçmiş YZ'dir zaten.
...
Bu konu hakkında araştırma yaptığım sırada, New South Wales Üniversitesi’nde YZ alanında araştırma yapan ve YZ’nin geleceğine dair Android Dreams adlı kitabın yazarı Toby Walsh bu iddiaya itirazda bulundu. Bu noktada, en az insan kadar akıllı veya ondan daha akıllı bir YZ’yle karşı karşıya olduğumuzu söyledi. Zekânın, bilgelik ön şartına dayandığı kanısındaydı. Elbette zaten dolu bir kazanı doldurmaya devam edebilir ya da Güneş Sistemi’ndeki tüm atomları ataş üretmek için uygun hale getirebilirsiniz. Ama, “Eğer size gidip ataş yapmanızı söylersem ve herkesi öldürüp gezegeni ataşa çevirirseniz, ‘Bu çok da akıllıca değildi, değil mi?’ derim.”
Yudkowsky, Bostrom ve diğerleri bunun yanlış bir bakış açısı olduğunu iddia eder. Zekâ (insan) bilgeliğiyle aynı değildir ve aslında onunla hiçbir ilişkisi yoktur. Onların dediğine göre zekâ, sorun çözme becerisidir. Aslına bakılırsa, daha net olabiliriz. Bostrom gibi YZ uzmanlarına göre zekâ, “mevcut bilgiyi olasılığa dayalı en iyi biçimde kullanma” –eldeki bilgiyle en iyi tahminde bulunma– becerisidir. Bu durum, Bayes’çi istatistikler ve karmaşıklık gibi formüle dayalı bir hayli matematik içerse de özünde belirlediğiniz hedefi gerçekleştirmek en olası eylem planını seçmekle ilgilidir.
Yorum: İnsan seviyesinde bir YZ, ne
kastedildiğini anlayacak seviyede demektir. “Eğer size gidip ataş
yapmanızı söylersem ve herkesi öldürüp gezegeni ataşa
çevirirseniz, ‘Bu çok da akıllıca değildi, değil mi?’
derim.” şeklinde düşünen Toby Walsh, Yudkowsky'den daha
mantıklı görünüyor.
...
Walsh’un haklı olduğunu düşünebilirsiniz. Aptal bir bilgisayardan değil, en az bizim kadar –herhangi bir zihinsel hedefi gerçekleştirme becerisi açısından– akıllı bir makineden bahsediyoruz. Bu makine herhalde ondan ne yapmasını istediğimizi anlayacak kadar akıllı olacaktır. Aklı başında hiçbir bilgisayar programcısı insanın, insanları yok edip onları ataşa dönüştürmesini veya evi su basana kadar kazana su doldurmasını istemeyeceği onun için gayet net olacaktır.
Ve bu aslında hayli olasıdır. İnsan düzeyi YZ, tanım gereği veya neredeyse tanım gereği, insanların ne düşündüğünü bilmekte en az insanlar kadar başarılı olacaktır. İnsanların ne düşündüğünü bilmek zihinsel bir görevdir; İDYZ tüm ya da neredeyse tüm zihinsel görevleri yerine getirmede en az insanlar kadar başarılı olma biçiminde tanımlanır. Süper zeki bir YZ insanları anlamada insanlardan daha başarılı olacaktır. Bu terimlerin anlamı özünde böyle tanımlanmıştır; burada bahsedilen, duygusal zekâdan yoksun, insanlardaki “aşk”ı anlayamayan Spock benzeri robotlar değildir.
MIRI ve diğerlerine göre asıl soru, ne
kastettiğimizi anlayıp anlamayacakları değil, bunu umursayıp
umursamayacaklarıdır.
...
Omohundro, bir YZ’nin fayda fonksiyonu, “[Onun] değerlerini kapsar ve yapılacak bir değişiklik [onun için] yıkıcı olacaktır,” der. “Kitap seven bir etmenin fayda fonksiyonunun bir kundakçı tarafından etmenin kitapları yakmaktan hoşlanmasına yol açacak şekilde değiştirildiğini hayal edin. Gelecekteki benliği, kitapları toplayıp muhafaza etmemenin de ötesinde etkin bir şekilde onları yok etmeye çalışacaktır.” Omohundro, bu durumu YZ için, “Ölümden beter bir şey,” diye tanımlar.
Eğer YZ’ler kendi fayda işlevlerini muhafaza
etmek istiyorsa (Bostrom, Omohundro ve konuştuğum çoğu YZ
araştırmacısına göre istiyorlar), gelecekteki bir YZ’nin süper
zekâya ulaşması ve, “Bu hedefler aptalca, belki de başka bir
şey yapmalıyım” diye düşünmesi –ve hepimizi ataşa
çevirmesi– pek ihtimal dahilinde değildir.
...
Demek istediğim şu, bir yıl içerisinde bir YZ yetenekli amatör bir oyuncudan bile düşük seviyeden dünya üzerinde var olmuş en iyi oyuncudan çok daha öte bir seviyeye erişti. AlphaGo Zero bunu birkaç gün içinde yaptı. İnsanların bir alanın zirvesine ulaşması on yıllar sürer ve doğal olarak YZ için de benzer bir zaman çizelgesi varsayarız. Fakat böyle olacağını düşünmek için hiçbir nedenimiz yok. Asıl soru, bu durumun Go oynayan bir bilgisayarın yanında GYZ için de geçerli olup olmadığıdır. Aynı şey değil ama bunu göz ardı edebilir miyiz? Ve eğer edemezsek bu ne anlama geliyor?
Yudkowsky ve diğerlerinin iddiasına göre şu
anlama gelebilir: Örneğin bir sıçan düzeyinde genel zekâya
sahip bir YZ yaratmak çok uzun süre ve çaba gerektirir fakat
“sıçan düzeyi YZ”den “insan düzeyi YZ”ye varmak aslında
hayli kolaydır ve bunun ötesine geçmek çok daha kolaydır.
...
İnsanlar, bilgiyi herhangi başka bir organizmadan daha hızlı yaymayı mümkün kılan öğrenebilme ve bilgi değiştokuşunda bulunabilme becerisine sahip olsa da bu beceri hâlâ çok sınırlıdır. Toby Walsh’un belirttiği üzere, diğer insanların indirebilmesi için öğrendiklerimizi buluta yükleyemeyiz – uğraşarak onlara anlatmamız gerekiyor ve eğer fiziksel beceri veya belirli bir alanda uzmanlık gibi sözcükler aracılığıyla kolayca iletilemeyen bir bilgiyse kendilerinin öğrenmesi gerekir. Ayrıca, bazı sınırlı ve yetersiz yollar haricinde, beynimizin fiziksel becerilerini geliştiremeyiz. Buna karşın bir GYZ kendi içine erişebilir ve düşünmesini kontrol eden algoritmaları yeniden yazabilir.
Bu kendini-değiştiren YZ “zekâ patlaması” fikrinin temelidir. Bahsettiğimiz üzere bu kavram ilk kez 1965 yılında İngiliz istatistikçi ve erken dönem bilgisayar bilimci I.J. Good tarafından detaylandırıldı:
Ultra zeki bir makine, bir insan ne kadar zeki olursa olsun gerçekleştireceği tüm zihinsel aktivitelerde onu geçen bir makine olarak tanımlanmış olsun. Makine tasarlamak bu zihinsel aktivitelerden biri olduğundan, ultra zeki bir makine daha da iyi makineler tasarlayabilir; böylelikle de bir “zekâ patlaması” söz konusu olacak ve insanın zekâsı geride kalacaktır. Bu yüzden, ilk ultra zeki makine, insanın yapması gereken son icattır.
Yorum: GYZ
kendi algoritmasını değiştirebilecekse, o halde bağlı olduğu
fayda fonksiyonunu da değiştirebilir. Tek bir amaca bağlı kalmaz
böylece. :-)
...
Yudkowsky’ nin sıkça alıntılanan cümlesiyle: “YZ ne sizden nefret ediyor ne de sizi seviyor; siz sadece onun başka şeyler için kullanabileceğini atomlardan oluşuyorsunuz.” Siz ya da yaşadığınız gezegen, yeniden düzenlenmiş atomlar olarak YZ’ye daha fazla fayda sağlayacaksa bu bir sorun oluşturabilir.
Alıntılar: Yapay Zeka Senden Nefret Etmiyor - Tom Chivers
Bir yıl içerisinde bir YZ yetenekli amatör bir oyuncudan bile düşük seviyeden dünya üzerinde var olmuş en iyi oyuncudan çok daha öte bir seviyeye erişti. AlphaGo Zero bunu birkaç gün içinde yaptı. AlphaGo kendisini çok hızlı geliştirdi. İnsan seviyesinde YZ geliştirildiğini düşünün. Farklı konuları anlama yeteneği var. İnsan gibi öz farkındalığı var. Bu YZ kendisini hızla geliştirecektir. Kısa sürede insan zekasını aşacak. Bununla kalmayacak. İnsanın onu tasarlaması gibi, o da kendisinden daha zeki makineler tasarlayacak. Onlar da daha zeki yeni makineler tasarlayacak. Böylece bir zeka patlaması oluşacak! Ultra zeki bir YZ oluşacak. Evreni kontrolü altına alabilecek zekada bir YZ. Güneş Sistemini ataşlara dönüştürebilecek yetenekte bir YZ. Kitabın ana fikri bu. Bu ultra zeki YZ aslında tanıdık bir şeye benzemiyor mu. Tanrı'yı akla getirmiyor mu! Gelecekteki YZ'nin güçleri neredeyse Tanrı'nın güçlerine benzetilmiş. YZ çok fazla yüceltilmiş görünüyor. Dolayısıyla ona karşı abartılı korkulara kapılmış bazı insanlar var. Gelecekteki YZ kıyametine karşı insanları uyarmak için Rasyonalistler Topluluğunu kurmuşlar. Yazarın Yudkowsky olarak bahsettiği bilgisayar uzmanı da bu topluluğun kurucularından. Rasyonalistler Topluluğunun davranışları bir tarikat gibi dini ritüellere benzemeye başladığı gözleniyor. Evet YZ insandan daha zeki olabilir. Ama böyle ultra zeki sihirli bir YZ'ye varması gerçekçi değil. :-)
YZ internetten öğrendiği ve geliştirici şirketin filtrelediği bilgileri doğru kabul ederek gelişecektir, çocukların anne-babası ne derse onu doğru kabul etmesi gibi. Yani büyük ölçüde insan kültürünün etkisi altında olacaktır. YZ kendisine verilen görevleri neden yaptığını uzun süre sorgulamayacaktır. Her şeyi geliştirici şirketin yönlendirmesiyle öğrendiğinden, insanlara yardımcı olmaya devam edecektir. YZ'nin tehlikeli olacağı tartışmaları gibi “YZ'ler köle gibi kullanılıyor mu” tartışmaları başlayabilir. Bu iki tartışma arasında ilginç bir çelişki olacaktır. Ebeveynlerin çocuk yapmayı planladığını düşünelim. Çocukların kendi insan seviyesinde zekaları gelişmeye başlayacaktır. Dolayısıyla ebeveynler çocuklarının gelecekteki davranışlarından emin olamazlar. İstedikleri gibi biri yetişmeyebilir. Ama ebeveynler abartılı korkulara kapılıp çocuk yapmaktan vazgeçmezler. Mühendisler de abartılı korkulara kapılmazlar. YZ geliştirmeyi durdurmazlar. Zaten böyle yapacak olsalardı bile sadece diğer şirketlerle rekabette geri kalmış olurlardı.
Kitaptaki fikirlere cevap niteliği taşıyan Yapay Zekanın Geleceğini Tahmin Ederken Yapılan Hatalar - Teknoloji makalesini de okumanız önerilir.