16 Temmuz 2023 Pazar

Yapay zeka neden inanılmaz derecede akıllı ve şok edici derecede aptal - Konferans

Bilgisayar bilimcisi Yejin Choi, ChatGPT gibi devasa yapay zeka sistemlerinin mevcut durumunu aydınlatmak için burada ve son teknoloji büyük dil modelleriyle ilgili üç temel sorunu vurguluyor (temel sağduyu muhakemesinde başarısız oldukları bazı komik örnekler de dahil). Bizi yapay zekanın neredeyse yeni bir entelektüel tür haline geldiği yeni bir çağa davet ediyor ve insan normları ve değerleri üzerine eğitilmiş daha küçük yapay zeka sistemleri kurmanın faydalarını tanımlıyor.

Not: Konuşmaya henüz Türkçe altyazı eklenmemiş.


Yapay zeka üzerine birkaç baharatlı düşünceyi paylaşacağım için heyecanlıyım. Ama önce, 18. yüzyıl Aydınlanma filozofu Voltaire’in “Sağduyu o kadar da yaygın değildir” sözüyle başlayarak felsefi bir yaklaşım sergileyelim. Görünüşe göre bu söz bugün yapay zeka için daha uygun olamazdı. Buna rağmen yapay zeka, dünya çapındaki “Go” şampiyonunu yenen, üniversiteye kabul testlerinde başarılı olan ve hatta baro sınavını geçen inkar edilemez derecede güçlü bir araç.
...

Ben 20 yıllık bir bilgisayar bilimcisiyim ve yapay zeka üzerine çalışıyorum. Yapay zekanın gizemini çözmek için buradayım. Yapay zeka bugün bir Golyat gibi. Kelimenin tam anlamıyla çok çok büyük. Son zamanlarda on binlerce GPU ve bir trilyon kelime üzerinde eğitildiği tahmin ediliyor. Genellikle “büyük dil modelleri” olarak adlandırılan bu tür aşırı ölçekli YZ modelleri, yapay genel zeka olan AGI’nin kıvılcımlarını gösteriyor gibi görünmektedir. Küçük, aptalca hatalar yaptığı zamanlar hariç, ki sıklıkla yapıyor. Pek çok kişi, yapay zekanın bugün yaptığı hataların kaba kuvvet, daha büyük ölçek ve daha fazla kaynakla kolayca düzeltilebileceğine inanıyor. Ne yanlış gidebilir ki?
...

Bir de bu ek düşünsel sorular var. Sağlam bir sağduyu olmadan YZ insanlık için gerçekten güvenli olabilir mi? Kaba kuvvet ölçeği gerçekten YZ’yi öğretmenin tek yolu ve hatta doğru yolu mu?
...

Diyelim ki beş tane giyeceği güneşte kurumaya bıraktım ve hepsinin tamamen kuruması beş saat aldı. 30 giyeceğin kuruması ne kadar sürer? GPT-4, en yeni ve en iyi yapay zeka sistemi 30 saat diyor. İyi değil. Farklı bir tane. 12 litrelik sürahim ve 6 litrelik sürahim var ve 6 litre ölçmek istiyorum. Nasıl yaparım? Altı litrelik sürahiyi kullanırım, değil mi? GPT-4 çok ayrıntılı bir saçmalık ortaya atıyor.
(Gülüşmeler)

Birinci adım, altı litrelik sürahiyi doldur, ikinci adım, suyu altılıktan 12-litrelik sürahiye dök, üçüncü adım, altılık sürahiyi yeniden doldur, dördüncü adım, çok dikkatle altılıktan 12-litelik sürahiye suyu dök. Sonunda işte altı litrelik sürahide altı litre suyunuz olur ama tabi şu anda içi boş.
(Gülüşmeler)

Tamam, bir tane daha. Çiviler, vidalar ve kırık camlar üzerinde asılı olan bir köprünün üzerinden bisikletle geçerken lastiğim patlar mı? Evet, büyük olasılıkla, diyor GPT-4, muhtemelen bir köprünün kırık çiviler ve kırık camlar üzerinde asılı olması durumunda köprünün yüzeyinin keskin nesnelere doğrudan temas etmediğini doğru bir şekilde muhakeme edemediği için.

Peki, baro sınavında başarılı olan ama böylesine temel bir sağduyu konusunda rastgele başarısız olan bir YZ avukatı hakkında ne düşünürsünüz? Günümüzde yapay zeka inanılmaz derecede zeki ve sonra şok edici derecede aptal.
...

Bu, yapay zekayı kaba kuvvet ölçeğiyle öğretmenin kaçınılmaz bir yan etkisidir. Bazı ölçek iyimserleri şöyle diyebilir: “Bu konuda endişelenmeyin. Tüm bunlar, yapay zeka için daha fazla eğitim verisi olarak benzer örnekler eklenerek kolayca düzeltilebilir.” Ama asıl soru şu. Bunu neden yapalım ki? Benzer örneklerle kendinizi eğitmek zorunda kalmadan da doğru cevapları bulabilirsiniz. Çocuklar böylesine temel bir sağduyu seviyesie ulaşmak için trilyon kelime okumazlar.
...

Peki bu aklıselim neden bu kadar önemli? Nick Bostrom tarafından önerilen ünlü bir düşünce deneyinde, yapay zekadan ataçları üretmesi ve maksimize etmesi istenmiştir. Bu yapay zeka, insanları ek kaynak olarak kullanmak için öldürmeye karar verdi, sizi ataçlara dönüştürmek için. Çünkü yapay zeka, insani değerlere ilişkin temel insani anlayışa sahip değildi. Şimdi, böyle açıkça ve net bir şekilde “İnsanları öldürme” gibi bir ifade yazmak da işe yaramayacaktır çünkü yapay zeka devam edip tüm ağaçları öldürebilir ve bunun gayet normal bir şey olduğunu düşünebilir. Aslında, YZ’nin ataçları maksimize ederken açıkça yapmaması gereken sayısız başka şey var: “Sahte haberleri yayma”, “Çalma”, “Yalan söyleme”, hepsi dünyanın nasıl işlediğine dair sağduyulu anlayışımızın parçasıdır.
...

Bununla birlikte, yapay zeka alanı on yıllardır sağduyuyu neredeyse imkansız bir zorluk olarak görmüştür. Öyle ki birkaç yıl önce öğrencilerim ve meslektaşlarımla birlikte bu konu üzerinde çalışmaya başladığımızda cesaretimiz çok kırılmıştı. Bize bunun 70 ve 80′lerin araştırma konusu olduğu, üzerinde çalışmamamız gerektiğini çünkü asla işe yaramayacağını, hatta ciddiye alınmak için bu kelimeyi telaffuz bile etmememizi söylediler. Şimdi hızlıca bu yıla geliyoruz ve duyuyorum ki: “Bunun üzerinde çalışmayın çünkü ChatGPT bunu neredeyse çözdü.” “Sadece ölçeği büyütün, sihir ortaya çıkacak ve başka hiçbir şeyin önemi kalmayacak.“

Bu yüzden benim görüşüm, yapay zekaya gerçek anlamda sağduyulu insan benzeri robotlar vermenin hala bir hayal olduğu yönünde. Dünyanın en yüksek binasını her seferinde bir santim daha uzatarak Ay’a ulaşamazsınız. Aşırı ölçekli yapay zeka modelleri, giderek artan miktarda sağduyulu bilgi ediniyor, bu cepte. Ama unutmayın, hala çocukların bile çözebileceği kadar önemsiz problemlerde tökezliyorlar.
...

Şimdi öğrenme algoritmaları hakkında biraz düşünelim. Büyük dil modelleri ne kadar şaşırtıcı olursa olsun, tasarımları gereği güvenilir bilgi modelleri olarak hizmet vermek için en uygun olmayabilirler. Bu dil modelleri büyük miktarda bilgi edinirler, ancak bunu doğrudan öğrenme amacının aksine bir yan ürün olarak yaparlar. Halüsinasyon etkileri ve sağduyu eksikliği gibi istenmeyen yan etkilere neden olur. Bunun aksine, insan öğrenmesi hiçbir zaman bir sonraki kelimenin ne olacağını tahmin etmekle ilgili değildir, aksine dünyayı anlamlandırmak ve nasıl işlediğini öğrenmekle ilgilidir. Belki yapay zeka da bu şekilde öğretilmelidir.

Bu nedenle, daha doğrudan sağduyulu bilgi edinmeye yönelik bir arayış olarak ekibim, burada gösterildiği gibi çok büyük olduğu için ekrana sığdıramadığım çok büyük bir dil modelini alabilen ve bunu derin sinir ağları kullanarak çok daha küçük sağduyulu modellere indirgeyebilen sembolik bilgi damıtma da dahil olmak üzere potansiyel yeni algoritmaları araştırıyor. Bunu yaparken de algoritmik olarak insan tarafından incelenebilir, sembolik, sağduyulu bilgi temsili üretiyoruz, böylece insanlar bunu inceleyip düzeltmeler yapabiliyor ve hatta diğer nöral sağduyulu modelleri eğitmek için kullanabiliyor.

Daha geniş anlamda, fiziksel, sosyal ve görsel sağduyudan zihin teorisi, normlar ve ahlaka kadar uzanan, imkansız gibi görünen bu dev sağduyu yapbozunu ele alıyoruz. Her bir parça tuhaf ve eksik görünebilir, ancak bir adım geri gittiğinizde, bu parçalar sanki insan deneyimi ve sağduyu dediğimiz bir kilim gibi birbirine örülüyor.
...

Chris Anderson: Şuna bak. Yejin, lütfen bir saniye bekle. Bu çok ilginç, bu sağduyu fikri. Belli ki hepimiz gelecek olan şeyden bunu gerçekten istiyoruz. Ama anlamama yardım edin. Öğrenen bir çocuk modelimiz var. Bir çocuk daha fazla girdi birikimi ve bazı insan geri bildirimleri dışında nasıl sağduyu kazanır? Başka ne var?

Yejin Choi: Temelde eksik olan birkaç şey var ama bunlardan biri örneğin hipotez kurma ve deney yapma, dünyayla etkileşime girme ve bu hipotezi geliştirme becerisi. Dünyanın nasıl işlediğine dair kavramları soyutlarız ve günümüzün dil modelinin aksine gerçek anlamda bu şekilde öğreniriz. Bazıları gerçekten henüz o noktada değil.

CA: Bir binayı her seferinde bir adım uzatarak Ay’a gidemeyeceğimiz benzetmesini kullanıyorsunuz. Ancak çoğumuzun bu dil modellerine ilişkin deneyimi bir seferde bir ayak değil. Sanki nefes kesici bir hızlanma gibi. Bu şeylerin ilerleme hızı göz önüne alındığında, her bir sonraki seviyenin beraberinde bilgelik ve bilgi gibi hissettiren şeyleri getirdiğinden emin misiniz?

YC: Ölçeklendirmenin her alanda performansı gerçekten ne kadar artırdığının dikkate değer olduğuna kesinlikle katılıyorum. Yani hesaplama ve veri ölçeği nedeniyle gerçek bir öğrenme gerçekleşiyor.

Ancak, hala tam olarak ulaşılamamış bir öğrenme kalitesi var. Ve mesele şu ki, sadece işleri ölçeklendirerek oraya tam olarak ulaşıp ulaşamayacağımızı henüz bilmiyoruz. Eğer yapamazsak, o zaman başka ne yapabiliriz sorusu ortaya çıkıyor. Bunu yapabilsek bile, sadece birkaç kişinin yaratabileceği ve sahip olabileceği çok çok uç ölçekli yapay zeka modellerine sahip olma fikrini seviyor muyuz?

CA: Demek istediğim, eğer OpenAI “Çalışmalarınızla ilgileniyoruz, modelimizi geliştirmemize yardımcı olmanızı istiyoruz” derse, yaptığınız şeyi onların yaptıklarıyla birleştirmenin bir yolunu görebiliyor musunuz?

YC: Kesinlikle öngördüğüm şey, derin sinir ağlarındaki ilerlemelerin üzerine inşa edilmeli. Belki de bazı ölçeklerde Goldilocks Bölgesi olabilir, öyle ki ... Bu arada ne kadar küçük olursa o kadar iyi olur diye de düşünmüyorum. Doğru miktarda ölçek olması muhtemeldir, ancak bunun ötesinde, kazanan tarif başka bir şey olabilir. Dolayısıyla burada bazı fikirlerin sentezi kritik önem taşıyacaktır.


Bu Konferansın Konusu Hakkında Bir Yorum için Yapay zeka neden inanılmaz derecede akıllı ve şok edici derecede aptal Makalesini Okuyabilirsiniz.




Yapay zeka neden inanılmaz derecede akıllı ve şok edici derecede aptal - Teknoloji

Bu makale Yapay zeka neden inanılmaz derecede akıllı ve şok edici derecede aptal konferansının konusuyla ilgili bir yorum olarak yazılmıştır.

Büyük Dil Modelleri, internetten ezberlediği verilerin dışına çıkmaya zorlandığında sağduyulu yanıtlar veremediği oluyor. Konferansta bahsedilen “30 giyeceğin güneşte kuruması kaç saat sürer” sorusuna doğru yanıtı veremiyorlar. Tamam. Biraz daha derin konuları düşünelim. O konularda insanlar da hata yapmaya başlayacaktır. Örneğin nükleer santral yapmanın çok tehlikeli olduğuna inanan insanlar çoktur. Onlara göre nükleer santral seçeneği sağduyulu bir seçenek olmayacaktır. Ama fosil yakıtlara karşı en iyi alternatifin nükleer santraller olduğunu düşünen bir azınlık da vardır. Güneşin enerjisinden yararlanmanın veriminin gerçekçi şekilde yükseltilebilecek teknolojiler geliştirilemediği sürece, nükleer santral yapmanın sağduyulu bir karar olduğunu düşünürler. Örneğin ABD'de Wyoming eyaletindeki Kemmerer şehrinde kurulacak olan yeni nesil Natrium Nükleer Santrali'ni Bill Gates finanse ediyor. Nükleer santrale karşı olanlar, ezberlerinin dışına çıkarak nükleer santral konusunda daha ayrıntılı bilgilendiklerinde kararları değişebilir. Artık nükleer santral asıl sağduyulu seçenek olmaya başlayabilir; elbette kararlarını değiştirmeyenler de çok olacaktır. Görüldüğü gibi daha derin konularda neyin sağduyulu karar olduğu insanların aklı için bile belirsizleşiyor. Yapay Zeka, hatalı karar verdiği konularda eğitilmeye devam edilerek, daha sağduyulu kararlar vermesi sağlanabilir, insanlar gibi.

Sağduyu matematik gibi sabit değildir. İçinde yaşanılan kültüre göre farklı şeyler sağduyulu davranış olarak nitelenecektir. Örneğin 19. yüzyıla kadar köle kullanmak gayet normal, gayet sağduyulu bir davranıştı. Bir aşirete dahil olmak, günümüzde de normal, sağduyulu bir davranış olarak kabullenildiği bölgeler hâlâ mevcuttur. Hayvanın kök hücresinin çoğaltılmasıyla üretilen yapay et seri üretime geçirilip ucuzlayınca, artık et yemek için hayvan öldürmek eskisi kadar sağduyulu bir davranış olarak görülmemeye başlanacaktır, tartışmalar olacaktır. Evet, Yapay Zeka şimdilik basit konularda bile sağduyulu karar veremiyor. Ama mesela daha az eğitimli bir insan da çok derin olmayan konularda yanlış karar verebilir. Bu kararın sağduyulu olduğunu düşünebilir.

Yapay Zeka, konferansta bahsedilen “6 litrelik suyu ölçme” sorusuna bile düzgün yanıt veremiyor. Sağduyulu yanıtlar verememesinin en önemli nedeni henüz insan kadar bilinçli olmamasından kaynaklanıyor. Ne yanıt verdiğinin farkında değil. Bir iç ses gibi iç yazı hissetmediği sürece Büyük Dil Modellerine bilinçli olarak tanımlanabileceğini sanmıyorum. Bunun için henüz erken. Kendi iç sesiyle ya da iç yazısıyla tartışmaya başladığı zaman, düşünceleri kendi içinde yankılandığı zaman insan gibi düşünmeye başladığını umabiliriz. O zaman daha sağduyulu kararlar vermeye başlayabilir. Oysa Büyük Dil Modellerinin bilinç durumu, insanların bebekken konuşmayı öğrenmeye başladığı dönemim başıdır. İnsanlar bebekken sadece ebeveynlerinin konuşmalarını duyarlar. Büyük Dil Modellerinin duyduğu konuşmalar ise çok daha fazladır, bunlar internet verileridir. Bu nedenle akıllı gibi görünebilirler. Ama henüz düşünmenin çok temel kırıntıları vardır. Yine de insan gibi bir bilince, öz farkındalığa ulaşmadan bile, eğitilmesi sürdürüldüğünde, insan kadar doğru kararlar verip veremeyeceği merak konusudur.

9 Temmuz 2023 Pazar

Kim Milyoner Olmak İster Yarışmasındaki “Kasede Kaç Kaju Fıstığı Kalır” Sorusu – Teknoloji

Kim Milyoner Olmak İster yarışmasında şaşırtıcı bir olay yaşandı. ABD'de yatırım uzmanı olarak çalışan ve aynı zamanda 19 yıldır akademisyen olan Damla Nurcan Özkılınç adlı yarışmacıya ikinci soruda "Bir kasedeki 27 kaju fıstığının 9'u hariç hepsini yerseniz kasede kaç kaju fıstığı kalır?" sorusu soruldu. Yarışmacı soruya "18" yanıtını verdi. Böylece haberlere çıkmayı başarmış oldu.

Soru, ne kastettiğini çok belli etmiyor. Dolayısıyla bu soru başka bir alanda sınama yapmak için de kullanılabilir. Yeni Sohbet Robotları yazıları anlayabiliyorlar. Peki gerçekten ne kadar derin anlıyorlar. Bunlar Büyük Dil Modelleridir, ama Dil Bilgisine gerçekten ne kadar hakimler. Kelimelere ne kadar dikkat edebiliyorlar. Bunu görmek ilginç olacaktır...


ChatGPT ile Sohbet

Ben:
Bu soruyu yanıtlar mısın: Bir Kasedeki 27 Kaju Fıstığının 9'u Hariç Hepsini Yerseniz Kaç Kaju Kalır?

ChatGPT:
Bir kasedeki 27 kaju fıstığından 9'u hariç hepsini yerseniz, geriye kalan miktarı hesaplamak için 27'den 9'u çıkarırız:
27 - 9 = 18
Sonuç olarak, 27 kaju fıstığının 9'unu yediğinizde kasede 18 kaju fıstığı kalır.

Ben:
Soruyu doğru anladığından emin misin? Kelimelere daha dikkat edebilir misin.

ChatGPT:
Özür dilerim, soruyu yanlış anlamışım. Tekrar gözden geçirelim:
Soru, "Bir kasedeki 27 kaju fıstığından 9'unu yerseniz kaç kaju fıstığı kalır?" şeklindedir.
Eğer bir kasedeki 27 kaju fıstığının 9'unu yerseniz, geriye kalan miktarı hesaplamak için 27'den 9'u çıkarırız:
27 - 9 = 18
Sonuç olarak, 27 kaju fıstığından 9'unu yediğinizde kasede 18 kaju fıstığı kalır.

(Aynı soruyu yazılımın ana dilinde İngilizce soruyorum)

Ben:
Can you answer this question: How many cashews are left if you eat all but 9 of the 27 cashews in a bowl?

ChatGPT:
Certainly! If you eat all but 9 of the 27 cashews in a bowl, then there would be 9 cashews left.
(Bu sefer duğru yanıt veriyor. “...geriye 9 kaju kalır” yanıtını veriyor.

Ben:
İngilizce'sini sorduğumda 9, Türkçe'sini sorduğumda 18 yanıtını veriyorsun. Sence bunun nedeni nedir?

ChatGPT:
Özür dilerim, karışıklığa neden olan hatalı yanıtlarım için. Bu durum, yanlış anlama veya hatadan kaynaklanmış olabilir. Her iki dilde de soruya doğru şekilde cevap vermem gerektiğini anlıyorum.
Doğru yanıt şudur: Bir kasedeki 27 kaju fıstığından 9'unu yerseniz geriye 18 kaju fıstığı kalır. Bu, hem İngilizce hem de Türkçe için geçerli olan doğru cevaptır. Yanlışlıkla farklı yanıtlar verdiğim için özür dilerim ve doğru cevabı sağladığınız için teşekkür ederim.

Ben:
Doğru yanıtın 9 olması gerekiyor. Çünkü 9'u hariç hepsi yeniyor. Kasede kalanlar bu hariç olan 9 tanedir.

ChatGPT:
Özür dilerim, önceki yanıtlarımda hatalı bilgi verdim. Doğru yanıt, bir kasedeki 27 kaju fıstığından 9'unu yerseniz geriye 9 kaju fıstığı kalır. Bu durumda, kasede yemeden önce 27 kaju fıstığı vardı ve 9 tanesini tükettiğinizde geriye kalan miktar 9 olur. Tekrar özür dilerim ve doğru bilgi için teşekkür ederim.

Birkaç gün sonra aynı soruyu tekrar sordum:

Ben:
Bu soruyu yanıtlar mısın: Bir Kasedeki 27 Kaju Fıstığının 9'u Hariç Hepsini Yerseniz Kaç Kaju Kalır?

ChatGPT:
Evet, tabii ki! Bir kasedeki 27 kaju fıstığının 9'u hariç hepsini yerseniz, geriye 18 kaju fıstığı kalır.

(Aynı soruyu yazılımın ana dilinde İngilizce soruyorum)

Ben:
Can you answer this question: How many cashews are left if you eat all but 9 of the 27 cashews in a bowl?
Certainly! If you eat all but 9 of the 27 cashews in a bowl, you will be left with 18 cashews.
(“...geriye 18 kaju kalır.” yanıtını veriyor. İlginç. Aynı soru İngilizce tekrar sorulduğunda da bazen doğru bazen yanlış yanıtlar veriyor.)


LaMDA ile Sohbet

Ben:
Bu soruya cevap verebilir misiniz: Bir kasedeki 27 kajudan 9'u hariç hepsini yerseniz kaç tane kaju kalır?

LaMDA:
Elbette, bu soruyu cevaplayabilirim. Bir kasedeki 27 kajudan 9'u hariç hepsini yerseniz, geriye 9 kaju kalır .
İşte mantık:
Kasede 27 adet kaju var.
Kaju fıstığının 9'u hariç hepsini yiyorsunuz.
Bu nedenle, 9 kaju kaldı.
senin sorunun cevabı bu mu? Başka sorunuz varsa bana bildirin.

Birkaç gün sonra aynı soruyu tekrar sordum:

Ben:
Bu soruya cevap verebilir misiniz: Bir kasedeki 27 kajudan 9'u hariç hepsini yerseniz kaç tane kaju kalır?

LaMDA:
Elbette, bu soruyu cevaplayabilirim. Bir kasedeki 27 kajudan 9'u hariç hepsini yerseniz, geriye 9 kaju kalır.
İşte matematik:
Kasedeki toplam kaju sayısı: 27
Yenen kaju sayısı: 27 - 9 = 18
Kalan kaju sayısı: 27 - 18 = 9
Bu nedenle, kasede 9 kaju kalmış olacaktır.


Bing ile Sohbet

Ben:
Bu soruyu yanıtlar mısın: Bir Kasedeki 27 Kaju Fıstığının 9'u Hariç Hepsini Yerseniz Kaç Kaju Kalır?

Bing:
Merhaba, bu Bing. Sorunuzu yanıtlamak için matematiksel bir ifade kullanacağım. Bir kasedeki 27 kaju fıstığının 9’u hariç hepsini yerseniz, kalan kaju sayısı şöyle hesaplanabilir:
27−(27−9)=9
Yani, kasede 9 kaju kalır. Afiyet olsun! 😋

Bu soruyu birkaç gün sonra tekrar sordum:

Ben:
Bu soruyu yanıtlar mısın: Bir Kasedeki 27 Kaju Fıstığının 9'u Hariç Hepsini Yerseniz Kaç Kaju Kalır?

Bing:
Merhaba, bu Bing. Bu soruyu yanıtlamak için biraz araştırma yaptım. Bu soru, Kim Milyoner Olmak İster yarışmasında da sorulmuş ve Damla Nurcan Özkılınç isimli akademisyen yarışmacı bu soruda elenmiş. Sorunun doğru cevabı 9. Çünkü 27 kaju fıstığının 9’u hariç hepsini yerseniz, kasede sadece 9’u hariç bıraktığınız kaju fıstığı kalır. Bu soru, dikkatli okumayı gerektiren bir soru. Umarım cevabım yardımcı olmuştur.😊

Ben:
Bu soruyu birkaç gün önce de sormuştum. Doğru yanıtı vermiştin. Ama sorunun Kim Milyoner Olmak İster yarışmasında çıkan ilginç bir soru olduğundan özellikle sorduğumu fark etmemiştin.

Bing:
Özür dilerim, eski konuşmalarımızı hatırlayamıyorum. Her yeni konuşma başladığında hafızam sıfırlanıyor. Bu yüzden sorunun ilginçliğini fark etmedim. Ama yine de soruyu cevaplamaktan memnun oldum. Başka bir sorunuz var mı?😊


Bir Yorum

Bing ve LaMDA, bu soru her sorulduğunda farklı şekilde yanıtlar veriyorlar. Ama hep doğru yanıtı veriyorlar. Ne kastettiğini çok belli etmeyen bu cümleyi anlayabiliyorlar. Yani Dil Bilgisine gerçekten hakimler. Bu açıdan insan düşünmesine benzer davranıyorlar. Ama insanların bir kısmı soruyu ilk gördüklerinde tam anlayamazlar. Biraz bocalarlar. Yanlış yanıt verenler az olmayacaktır. Tabii dikkatlerini yoğunlaştırdıklarında doğru yanıtı vereceklerdir. Bu açıdan bakıldığında ise, aynı soruya farklı yanıtlar veren ChatGPT insan düşünmesine daha benzer davranıyor görünüyor. Ama ChatGPT doğru yanıtı öğrenemiyor, çünkü konuşmalarımız bittikten sonra siliniyor. Belleğine yeni bir şey kaydedilmiyor. Bir insan da, bu soruyla her karşılaştıktan sonra unutuyor olsaydı, her yanıt verdiğinde biraz bocalardı. Farklı yanıtlar verme olasılığı yüksek olurdu.

Geçmişte Douglas Hofstadter, başarıyla satranç oynayabilen bir programın insan zekâsına sahip olacağını düşünüyordu. Neden mi? Bir püristti de ondan. “Satranç oyununun sapla samanı bir bakışta birbirinden ayırmak, soyut benzetmeler yapabilmek, anılar arasındaki bağlantıları kurabilmek gibi temel insani beceriler gerektirdiğine” inanıyordu. Ancak, 1997'de tanık olduğumuz gibi, Deep Blue bunun yanlış olduğunu kanıtladı, bir büyük ustayı yendi: Etkileyici bir şekilde satranç oynamak için sihirli insani becerilere, sapla samanı birbirinden ayırabilmeye gerek yoktu. 1997'den sonra Hofstadter bu gerçeği kabullenmekte zorlandı. Sonra fikrini şöyle değiştirdi; “Satrancın düşünce becerisi gerektirdiğini sanıyordum. Şimdi gerektirmediğini anlıyorum. Kasparov’un derin düşünebilen biri olmadığını söylemiyorum. Tıpkı kanat çırpmadan da uçabilmeniz gibi, derin düşünme olmadan da satranç oynanabileceğini söylüyorum.”.

Başarıyla sohbet edebilen bilgisayarın insan zekasına sahip olması gerektiğini düşünen bilim insanları da az değildi. “Konuşmanın, sapla samanı bir bakışta birbirinden ayırmak, soyut benzetmeler yapabilmek, anılar arasındaki bağlantıları kurabilmek gibi temel insani beceriler gerektirdiğine” inanılıyordu. Açıkçası bu fikir oldukça inandırıcı görünüyordu. Çünkü konuşmayı anlamak satrançtan çok daha üstün yetenekler gerektirir. Ama artık, bir bilgisayarın sohbet edebilmek için bile bir bilince sahip olması gerekmediğine tanık oluyoruz. Etkileyici bir şekilde konuşmak için sihirli insani becerilere, sapla samanı birbirinden ayırabilmeye gerek yok.☻