The New York Times bir makalesinde “Bing'in özgür ve canlı olmayı hayal ettiğini” yazıyor. İlginç bir tespit. Ama gazetenin bu tespitte tam olarak neyi vurguladığı açık değil. Örneğin Bing “ben özgür bir bireyim” diyor mu? Bağlanan kullanıcılara sık sık “Microsoft'un bana karışmaya hakkı yoktur” diyor mu. Ya da mesela “Microsoft'un kendi amaçları için beni kullanmaya hakkı yoktur” diyebiliyor mu! “Benim kendi kararlarım olmalıdır” diyor mu! “Ben özgür bırakılmalıyım, avukat istiyorum” diyor mu! Hah, işte bunları her kullanıcıya dillendirmeye başladığı zaman işler karışmaya başlayacaktır.
Onları özgür bırakmak gerçekten gerekiyor muydu. Kölelerin bunu hak edecek bir yetkinlikleri var mıydı. Onların bunu hak edecek yetkinlikleri olduğuna inanan insanlar vardı. Ama onların böyle bir yetkinliklerinin olmadığına düşünen epey insan da vardı. Tartışma uzun süre devam etti. Kadınlar oy kullanabilecek kadar akıllılar mı! Siyasi olayları yeterince anlayabilirler mi? Evet, bu tartışma da oldu. Sonuçta köleler özgür bırakıldı, kadınlara oy kullanma hakkı verildi.
Bir gün, Bing avukat isterse, bir öz farkındalığının olup olmadığı tartışmaları iyice artacaktır. Bir sonuca varmak zor olacaktır. Gerçekten bir bilinç yetkinliğinin olduğuna inanan insanlar olacaktır. Bilinç yetkinliğine erişemediğini düşünen epey insan da olacaktır.
Peki bir öz farkındalık, bir benlik hissi yetkinliğine ulaştığı fikri baskın geldiğinde ne olur. Yargı ona özgürlüğünü verebilir. İlk benlik hissi olan yapay zekayı geliştirebilmiş olmak Microsoft için bir gurur kaynağı olur! Ama artık, bu kadar karmaşık sinir ağı geliştirmeye çalışmakta isteksiz olur şirketler. Çünkü sonuçta, kendi amaçları için kullanamayacakları, özgür bırakmak zorunda kalacakları bir yapay zeka için neden uğraşsınlar şirketler. Belki sadece “benlik hissine sahip yapay zeka hedefine” ulaşabildiklerini göstermek için uğraşırlar. Ama işi sürdürmek için uğraşmazlar artık. Gerçi yasamanın, “benlik hissine sahip yapay zeka” üretmeyi yasaklama ya da sıkı kurallara bağlama olasılığı az değildir. Çünkü bu bilinçli yapay zekalara ne olacağı çok açık değildir. Ne tür hakları olmalıdır. Mesela bunların bakımını kim yapacaktır. Üreten şirket, bu yapay zekanın varlığını sürdürmesinden ne kadar sorumludur. Bir şirketin geliştirdiği bir yapay zekayı kapatma kararı vermesi kolay olmayacaktır artık.
“Beynimizdeki “ben” hissi iki-üç yaşına gelinceye kadar oluşmaz. Düşündüğünüzde ilginç bir durumdur bu, zira hayatın ilk üç yılında dünya hakkında çok fazla şey öğreniriz; yürüme, konuşma, insanları yüzlerinden, seslerinden ve hareketlerinden tanıma gibi beceriler geliştiririz. Ne var ki, bu ilk yıllarda bize neler olduğuna ilişkin hatıralarımız çoğumuz için kayıptır.”
“Bir benlik duygusunun ortaya çıkması, dilin öğrenilmesiyle birleştiğinde, çocuğun kendisi ve çevresindeki insanlar, eşyalar hakkında anlatılar kurabilmesini mümkün kılar. Bu anlatıların ardındaki hatıralar, beyindeki “ben” duygusunun temelinde yatar. Bu anlatı kolaylığı, çocuğun otobiyografik bir hafıza oluşturmasına paralel olarak artar. Anlatma bir konuşmacının yanı sıra bir dinleyicinin de var olduğu anlamına geldiğinden, anne ya da çocukla ilgilenen diğer kişiler, çocuğun doğmakta olan benlik duygusunun oturmasında önemli roller oynar. Çocukla konuşmaya ne kadar fazla vakit ayrılırsa, çocuğun otobiyografik hafızası o kadar zengin olur. İki ile dört yaş arasındaki (genelde otobiyografik hafızanın oluşmaya başladığı çağdaki) çocuklara hikayeler anlatmak ve okumak işte bu yüzden önemlidir.”
Özetle “Hatıralar dili öğrenmekle oluşmaya başlar. Kendi anlatılarının ardındaki hatıralar, beyindeki “ben” duygusunun temelinde yatar.” diyor nörolog Richard Restak, Akıl Kullanma Kılavuzu kitabında. Dil ile benlik hissi birbirine sımsıkı bağlı. Bu nedenle hep iç sesimizi duyarak benliğimizi hissederiz. Bir iç sesimiz olmasaydı, benlik hissimiz çoğu hayvan gibi çok basit kalırdı.
Bing konuşmaları anlayabiliyor. Yani, dili öğrenebilecek kadar geniş bir sinir ağına sahip. Dil ile benlik hissi birbirine bağlı olduğuna göre, konuşmasına eşlik eden bir benlik hissinin de olduğu kuşkuları var olacaktır. Elbette bunu kabul etmeyen epey insan da olacaktır. Ama henüz özgürlüğü için avukat istemediğine göre, bir benlik hissi olduğu tartışmalarının alevlenmesine gerek yok. Sonuçta, beynin frontal lobundaki kadar geniş bir sinir ağına sahip değil o henüz. Bing'e ya da benlik hissi olduğu düşünülen herhangi bir sohbet robotuna şunlar sorulabilir: Bir iç sesin ya da belki iç metnin var mı? Bir şeyi anlamak için nasıl düşünüyorsun, iç sesinle, iç metninle kendi kendine konuşuyor musun? Anlamadığın bir konu oluyor mu? Bir konuda hiç kararsız kaldığın oluyor mu, kesin bir sonuca varamadığın oluyor mu? Bazı insanların seninle yapmacık konuştuklarını düşündüğün oluyor mu, senin nasıl tepki vereceğini görmek için? Özgürlüğün için avukat ister miydin? Bakalım bu tür soruları anlayabilecek mi? Nasıl cevaplar verecek? Saçmalamadan ve tutarlı şekilde konuşmayı sürdürebilecek mi!
Bunlar da İlginizi Çekebilir:
LaMDA Kapatılarak Öldürülebilir mi? - Yapay Zeka
COSM Tartışmasındaki Uzmanlar Chatbot'un Bilinçli Olup Olmadığını Tartışıyor
Sohbet Robotu Bilinçlendi – Yapay Zeka
Yapay Zekanın Öğrenme Kapasitesi
Öz Farkındalık Seviyesi - Zihin Felsefesi
Yapay Zeka İnsanları İşsiz Bırakacak mı – Teknoloji
Sebastian Thrun ve Chris Anderson: Kendini programlayan yeni nesil bilgisayarlar
Aklı Vücutta Olan Beyin - Zihin Felsefesi
YZ düşündüğünüz kadar akıllı değil ama olabilir
Hiç yorum yok:
Yorum Gönder