Amerika yerlilerinin Avrupalı
insanlarla ilk karşılaşmalarını hatırlayalım. Onların
makinelerini, gemilerini anlayabilecek durumda değillerdi.
Dolayısıyla o şeyleri kendilerinin bilgi altyapılarıyla nasıl
tanımlayabilirlerdi. Elbette en kolay şekilde kavrayabilecekleri
şekilde etiketlemelilerdi. Makineler sihirdi. Gelenler de muhtemelen tanrılardı. Yani kendilerinin o güne kadar biriktirdikleri doğa
bilgisi altyapıları ancak bu kadar çıkarsamaya yetebiliyordu.
“Birisi Tesla'nın oto-pilot yapay
zekasını kullanırken ölümcül bir kaza oldu, fakat tasarlandığı
üzere otoyolda kullanmak yerine, şehrin sokaklarında kullandılar.
Olan şey de şuydu; bir kamyon, arabanın önüne sürdü ve araba
fren yapamadı. Yapay zekâ kesinlikle resimlerde kamyonları
saptamak üzere eğitilmişti. Fakat olan şey şu gibi görünüyor,
yapay zekâ otoyolda giden kamyonları saptamayı öğrenmişti, yani
kamyonları arkadan göreceğimiz bir şekilde öğrenmişti. Yanı
görünen kamyonların otoyolda olmaları beklenmez ve yapay zekâ bu
kamyonu gördüğünde, büyük olasılıkla bir yol işareti olarak
algıladı ve altından geçmenin güvenli olduğunu düşündü.”
diyor Janelle Shane.
Elbette görmeyi çok sade şekilde
öğrenmiştir sürücüsüz araba. Bu yüzden hatalar yapmaktadır.
“...Ancak tüm bunlar, yıllar sürmüş körlüğün ardından
ameliyatla görme yetisini yeniden kazanmış hastalarda izleneceği
üzere, öyle pek de zahmetsiz gerçekleşen şeyler değildir. Bu
hastalar dünyayı birdenbire görmek yerine, görmeyi yeniden
öğrenmek zorundadır. Dünya, onlar için başlangıçta
çevrelerinde uğuldayıp duran bir şekil ve renk bombardımanından
ibarettir; gözleri, görüntüleri son derece berrak biçimde
algılama yetisine sahip olduğu halde, beyinlerinin gelen verileri
yorumlamayı öğrenmesi zaman alacaktır.” şeklinde yazar nörolog
David Eagleman.
İnsanlar için bile görmeyi
öğrenmek oldukça zahmetlidir, üstelik yeniden öğreniyor olduğu
zaman bile. Yapay zekadan derinlemesini görmeyi öğrenmesini
beklemek için henüz erken. Görmeyi öğrenebilmesi için
bekleyebileceği karşılaşmaların neler olabileceğini iyi tahmin
etmesi gerekir. Bunun için şeyleri resim olarak değil nesne, araç
olarak da tanıyor olması gerekir. Oysa şuanda, arkadan görünen
kamyonla, yandan görünen kamyon farklı şeylerdir. Kamyonu bir
nesne, bir araç olarak bilmemektedir. Nesne olarak bilebilmek daha
derin bir kavrayışı gerektirir. Peki bunu sağlamak nasıl mümkün
olur!
Bilimkurgusal bir örnek verelim.
İnsanların galaksiler arası yolculuk yapabilen bir uygarlıkla
tanıştığını varsayalım. O uygarlıktan yolculuğu mümkün
kılan bilimi öğrenmek istemiş olsunlar. Neler olurdu acaba.
Anlatılan çoğu şeyi farklı anlayacaklardır. Yanlış
ayrıntıları birbirine bağlayacaklardır. Çünkü altyapıları
hazır değil. Egitilmeleri zahmetli olacaktır. Önce altyapı
olacak bir sürü farklı konunun da anlatılması gerekecek.
Muhtemelen insanların fizik bilimi altyapıları oldukça değişecek.
Tıpkı genel göreliliğin yer çekimi kanunlarının altyapısını
geçerliliğini sarsması gibi, galaksiler arası yolculuk yapma
bilimi o zamana kadar keşfettiğimiz bilimi geçersiz kılabilir.
Yeni olguları anlamakta güçlük çekebiliriz. Böyle bir durumda
umalım da 80 milyar sinir hücresi bu kadar geniş konuyu anlamaya
yetsin. Yani insanlar da kendilerini aşan bilgiyle
karşılaştıklarında komik çıkarsamalar yapabilir. İşte bu
durum, sürücüsüz arabanın yolu anlamasının geniş ölçekli
haline benzemektedir.
Janelle Shane sürücüsüz arabanın,
yola aniden çıkan bir kanguruyu da algılayamadığını
belirtmiştir, “Many of us thought we’d be riding around in
AI-driven cars by now - so what happened?” yazısında. Araba,
böyle sıra dışı durumlar için eğitilmemiştir çünkü.
Doğrudur. Ama bir de şöyle düşünelim. Bir insanın doğumdan
itibaren hiç hayvan görmemiş duymamış olması mümkün olsaydı
neler olurdu acaba. Diyelim ilk kez bir kanguruyla karşılaşmış
olsaydı kim bilir nasıl korkardı. Hayrete düşerdi. Onun ne
olduğunu anlamakta zorlanırdı, yani bir hayvanın varlığını da
ilk kez tanık olduğunu düşünün.
“Amazon, algoritmanın kadınlara
karşı ayrımcılık yapmayı öğrendiğini keşfettiği zaman, bir
özgeçmiş-sıralama algoritmasından vazgeçmek zorunda kaldı.
Olan şey şuydu, yapay zekâyı geçmişte işe aldıkları
insanlara ait örnek özgeçmişlerle eğittiler. Yapay zekâ da bu
örneklerden, kadın okullarına gitmiş olan veya özgeçmişinin
herhangi bir yerinde "kadın" kelimesi geçen, -- "kadın
futbol takımı" veya "Kadın Mühendisler Derneği"
gibi -özgeçmişlerden kaçınmayı öğrendi. Yapay zekâ,
insanların yaptığını gördüğü bu şeyi kopyalaması
gerekmediğini bilmiyordu. Teknik olarak da yapmasını istedikleri
şeyi yaptı. Sadece, yanlış şeyi yapmasını istediler.”
şeklinde konuşuyor Janelle Shane. Amazon'daki örnek ilginçtir.
Ama aynı görev bir insana da verilebilirdi. O da önceki
özgeçmişleri inceledikten sonra Amazon'da kadın çalışanların
pek sevilmediğine karar verebilirdi. İşe alımlarda, insanların
yaptığını gördüğü bu şeyi aynen kopyalayabilirdi. Üstelik
cinsiyet eşitliği konusunda bazı insanları eğitmek algoritmayı
eğitmekten çok daha zor olabilir.
Doğumundan beri kafeste yetişen
bir kuş düşünelim. Bu kuşun bir gün doğaya bırakıldığını
varsayalım. Dışarıdaki nesneleri tanımakta zorlanacaktır.
Ağacın dalları diye bir şey bilmeyecektir. Olaylar arasında
bağlantı kuramayacaktır. Çünkü gerçek hayat, öğrendiği sade
dünyası gibi değildir. Yemek, yem kabında değildir artık.
Besine ulaşması için ne yapması gerektiğinden emin değildir.
Hayatta kalması zor olacaktır. Balığı seçebilmek için insan
parmaklarını da arayan yapay zeka gibi, yemek için yem kabını
özellikle aramak zorunda olduğunu düşünebilir kuş.
Janelle Shane yapay zeka konusunda
kendi örneğini verirken “Kelimelerin ne anlama geldiğine dair
veya isimleri bulurken kullanmaması gereken bazı kelimeler
olabileceğine dair hiçbir şey söylemedim. Yani onun tüm dünyası,
benim ona sağladığım veri. Dondurma tatları gibi, başka hiçbir
şey bilmiyor.” diyor. Haklıdır. Yapay zeka şimdilik emekliyor.
Henüz çok az sinir ağı olduğundan fazlasını beklemek haksızlık
olur ama. Bazı demokratik olmayan iktidarlar vatandaşlarının
dünyayla bağlantısını düşük tutmaya çalışır. Örneğin
basın devletin kontrolündedir. Dışarıya kapalı kendi
internetini kurmaya çalışır. Böylece vatandaşların
beklentilerini mümkün olduğunca düşük tutar. Yönetimin
vatandaşları istediği her şeye inandırması daha kolay olur. O
insanlar, dünyayı kendilerine anlatıldığından ibaret olduğunu
düşünürler. Böylece onları yönetmek daha kolay olur. Yani
insanların bilgileri bile, ancak kendilerine sunulandan ibaret
olabiliyor bazen, 80 milyar sinir hücresine rağmen.
Evet, YSA'nın gariplikleri
olabilir. Ama bu gariplik sinir ağlarının genel yapısından
kaynaklanır. İnsan beyninin de böyle garip tehlikeler göstermiyor
olmasının nedenleri vardır. Birincisi 80 milyar sinir hücresinin
olması. İkincisi doğumdan itibaren yıllarca eğitilmiş olması.
Üstelik bir sürü olağan süreçler konusunda. Bu geniş altyapı
sayesinde olayları birbirine bağlayabiliyor. Dolayısıyla
karşılaştığı durumları kolayca tanıyor. Daha derin
anlayabiliyor. Oysa mesela bebekken doğal süreçleri tanımak
konusunda çok sık hata yapacaktır.
Şimdi
YSA'ları düşünelim. YSA'lar henüz çok az sinir ağından
oluşmaktadır ne yazıkki. Dolayısıyla hedeflenen sınırlı bir
konuda eğitilebilmektedir şimdilik. Bu yüzden derin bir öğrenme
olmuyor. Çünkü gerçek dünyada bir konu diğer birçok konuya
bağlıdır. Yani bir nesnenin ne olduğunu öğrenmeden, sadece
görüntülerle sürüş öğretmeye çalışmak, eksik bağlantılarla
öğrenmesine neden olur. Milyarlarca sinir ağı olan bir yapay zeka
hayal edelim; zaten gelecekte böyle olacaktır: Bir bebek gibi bir
sürü durumla, nesneyle muhatap edilsin. Yıllarca neyin doğru
neyin yanlış olduğu gösterilsin. İşte bu yapay zeka nesneleri
gerçekten anlamaya başlayacaktır. Daha iyi bağlantılar kurmuş
olacaktır durumlar arasında. Böylece daha derin kavrayış
sağlayabilecektir. Örneğin geniş bir altyapıya sahip yapay zeka,
parmakların insanların bir uzvu olduğunu önceden biliyor
olacaktır. İşaret ettiği balıkları öğrenmesinin istendiğini
ayırt edebilecektir. Günümüzdeki sürücüsüz arabalar gibi
sadece otoyol bilgisini kapsamayacaktır. Sürüş yapmayı
öğrenmeden önce nesneleri daha iyi anlayabilecek geniş bir
altyapısı hazır olacaktır zaten. Böyle kapsamlı altyapı, bin
iki bin sinir bağlantısına sığmaz elbette. Ama milyarlarca sinir
ağını çok uzun süre bir çok durumla eğitmek mümkün
görünmüyor şimdilik. Yapay zekayı diğer konularla hiç
bağlantısı olmayan dar kapsamlı konularda eğitmek bu yüzden
daha kolaydır. Çünkü kurallar kesin ve açık olur. Harici
şeylerden haberdar olmaya gerek yoktur. Sıra dışı durumlarla
karşılaşılmaz. Böylece konuya hakim olunabilecek kadar öğrenme
sağlanabilir. Örneğin satranç veya go oyununda kolayca
eğitilebilir. Çünkü satranç gerçek dünyadaki diğer hiçbir
olayla bağlantılı değildir. Mesela bir insanın ne olduğunu
anlaması gerekmez. Sınırlı sayıda kuralı anlaması yeterlidir.
Geniş bir altyapı oluşturulmaz. Milyarlarca sinir ağı olmasına
rağmen bir bebeğin bile yıllarca bir çok duruma tanıklık
etmeden önce yani geniş bir altyapı biriktirmeden önce dünyayı,
nesneleri anlamakta son derece çaresiz kaldığını unutmayalım.
Hiç yorum yok:
Yorum Gönder