Yapay zekâ temelli sorunların kaynağını “öğrenim aşaması sırasında yapılan hatalar” ve “performans aşaması sırasında yapılan hatalar” olarak iki kategoriye ayırabiliriz. Bu tip sistemlerin, tasarımcıların istediği şeyleri değil, farklı ama bağlantılı bir fonksiyonu öğrenme ihtimali düşük de olsa her zaman vardır.
Bu konuda çok bilinen bir örneğin başrolünde, ABD Silahlı Kuvvetlerinin kullandığı bilgisayarlı görüş sistemi yer almıştır. Sistem, kamuflajlı düşman tanklarını otomatik görecek şekilde eğitilmişse de tankları değil, onların gerisindeki görüntüleri ayırt etmeyi öğrenmişti. Dikkatsizce tasarlanmış fonksiyonlar yüzünden yapay zekânın başka tuhaflıklar sergilediği de görülmüştü. Örneğin bir oyunu tam kaybetmek üzereyken durdurması veya topa sahip olma üstünlüğünü sağlamak için olur olmaz her an topa dokunması gibi durumlar yaşanmıştı.
Yaşanabilecek sorunları daha iyi anlamak ve önlemek veya en azından ciddiyet kazanmadan gidermek için yakın geçmişte yaşanan yapay zekâ sorunlarına bakmak gerekir. Geçmiş yıllarda yaşanmış yapay zekâ sorunlarından bazıları şunlardır:1
• Otomatik e-posta
cevaplayıcısı, kişinin mesai arkadaşlarına “Seni seviyorum”
gibi uygunsuz cevaplar yazar.
• Otomobil parçalarını tutup
taşıma görevini yerine getiren robot, bir işçiyi öldürür.
•
Görüntü etiketleme yazılımı, siyahi kişileri goril olarak
etiketler.
• Tıp sektöründe kullanılan yapay zekâ, astım
hastalarının zatürreden ölme olasılığını düşük olarak
hesaplar.
• Yetişkinlere yönelik içerikleri filtreleme
yazılımı, uygunsuz içeriği yok etmekte başarısız olur ve
çocuklar, şiddet ve cinsellik içeren görsellere maruz kalır.
•
Yeniden suç işleme eğilimini hesaplamakla görevlendirilen yapay
zekâ, ırkçı kestirimler yapar.
• Yapay zekâ, yarış
oyununu kazanabilmek, parkuru tamamlamak yerine, parkurdaki bonusları
toplamaya girişir ve birinciden daha çok puan toplamayı da
başarır.
• İnsanlar tarafından kontrol edilmeyen bilgisayar
oyunu karakterleri, izin verilmemiş süper silahlar tasarlar.
•
Yapay zekâ, güzellik yarışmasına katılan kadınları
değerlendirip koyu tenlilere düşük puan verir.
• Alışveriş
merkezindeki güvenlik robotu bir çocuğa çarpıp yaralanmasına
yol açar.
• Kendi kendine giden otomobil, ölümlü kazaya
karışır.
Kullanıcılar her gün yapay zekânın beceriksizlikleriyle karşı karşıya kalıyor. Spam filtresi önemli e-postaları filtreliyor, navigasyon sizi yanlış yerlere götürüyor, makinelerin yaptığı çeviriler cümlelerin anlamını bozuyor, otomatik düzeltme özelliği yazmak istediğiniz sözcüğü değiştirip bambaşka bir sözcüğü dayatıyor, biyometrik sistemler insanları tanımıyor, metin deşifre programları söylenenleri anlamıyor, vs. Beceriksizlik yapmayan yapay zekâ örneği bulmak gerçekten çok zor.
Yapay zekâ beceriksizliklerini incelediğimizde basit bir genellemeye ulaşıyoruz. X görevini yapmak üzere tasarlanmış bir yapay zekâ sistemi, bir gün mutlaka o X görevini yapmakta başarısızlığa uğrar. Çok basit gibi görünse de aslında son derece isabetli bir genellemedir. Gelecekte yapay zekânın nerelerde beceriksizlikler yapacağını kestirmekte büyük bir isabet oranıyla kullanılabileceğimiz bir referanstır. Örneğin günümüz ve geleceğin en gelişmiş yapay zekâ sistemlerini göz önünde tutarsak şu kestirimleri yapabiliriz:
• Yapay zekâlı doktorlar, bazı
hastalara gerçek doktorların asla koymayacağı yanlış teşhisler
koyabilir.
• Video betimleme yazılımları, filmlerin
konusunu yanlış anlayabilir.
• Espri üretme yazılımı,
komik espriler üretmeyi beceremeyebilir.
• Kinaye tespit
yazılımı, iğneli sözlerle samimi sözleri birbirinden ayırt
edemeyebilir.
• İşe alım yazılımı, sistematik olarak
taraflı davranabilir ve aslında yetersiz kişileri işe alabilir.
•
Mars’a gönderilen robot, bulunduğu konumun arazi yapısını
yanlış anlayıp bir kraterin içine yuvarlanabilir.
•
Vergi hazırlama yazılımı, önemli vergi iadesi avantajlarını
gözden kaçırabilir, yanlış iade taleplerinde bulunabilir.
Bu örnek ve analizlerden neler öğrenebiliriz? Beceriksizlikler, başarısızlıklar her zaman olacaktır. Bu, hayatın kaçınılmaz bir gerçeğidir. Ancak yine de en iyi uygulamaları geliştirip hayata geçirmekten geri durmamalıyız. Mesela şunları yapabiliriz:
• Sisteme kullanıcı tarafından
sağlanacak veri girişi kontrol edilebilir, öğrenme sürecinin
doğrulanmış veri girişlerine dayanması sağlanabilir.
•
Algoritmalardaki ırk, cinsiyet, yaş gibi taraflı davranmaya açık
hususlar denetlenebilir.
• Yazılımın ne şekilde
çuvallayacağı dikkatle incelenip, olası her senaryo için bir
güvenlik mekanizması oluşturulabilir.
• Daha az “akıllı”
bir yedek ürün veya hizmet el altında hazır tutulabilir.
•
Bir rezalet yaşanması durumunda medyayla iletişim konusunda
yapılacaklar planlanabilir. (İpucu: İlk sözünüz özür dilemek
olsun.)
Bana göre, yapay zekânın becerileri geliştikçe, beceriksizliklerinin sıklık ve şiddeti de artacaktır. Günümüzde kısıtlı bir alanda kullanılan yapay zekânın yaşattıkları, sadece buzdağının görülebilen ucudur. Birden fazla alanda yetkinliğe sahip genel maksatlı yapay zekâlar geliştirdiğimizdeyse, utanç verici durumlara düşmek, kaygılanmamız gereken meselelerin en sonuna düşecektir.
Alıntı: ŞİRKETİNİZİN
ALGORİTMALARI HATA YAPARSA NELER OLUR Makalesi – Yazan Roman V.
Yampolskiy
İlginç bir makale. Sıraladığı örneklerden bazılarını inceleyelim. Yapay zeka için “Kinaye tespit yazılımı, iğneli sözlerle samimi sözleri birbirinden ayırt edemeyebilir.” örneği verilmiş. Bu gerçekten olabilir. İlgi alanları oldukça farklı iki insan varsayalım. Birbirlerini pek tanımıyor olsunlar. Bunlar konuşmaya başladıklarında birbirlerinin çoğu göndermesini fark etmeyeceklerdir. Anlamadıkları ironileri olacaktır. Elbette fark edilmeyen çeşitli kinayeler de olacaktır. Hatta bazen kinayenin çok karmaşık olması bile gerekmez ve karşıdaki fark edemez. Makalede “Otomatik e-posta cevaplayıcısı, kişinin mesai arkadaşlarına “Seni seviyorum” gibi uygunsuz cevaplar yazar.” örneği verilmiş. Karşısındaki kişinin verdiği işaretleri yanlış yorumlayabilir. Kendisine ilgi gösterdiğini sanabilir. Ve sonunda ona “Seni seviyorum” şeklinde uygunsuz seslenir. İnsanlar arasında bazen böyle durumlara rastlanır. İnsanların yanılması daha karmaşık nedenlere bağlı olacaktır sadece. Makalede “Yapay zekâ, güzellik yarışmasına katılan kadınları değerlendirip koyu tenlilere düşük puan verir.” örneği verilmiş. Bir yapay zeka, önceki güzellik yarışmalarının sonuçlarının istatistiğine bakarak ya da internetteki güzellik değerlendirmelerinin istatistiğine bakarak, güzelliği açık tenli ağırlıklı olarak tanımlayabilir. Bu doğru. Ama mesela bir çocuğun etrafı yoğun şekilde koyu tenli insanlarla sarılı olduğunda, o da yetişkinliğinde, güzelliği koyu tenli ağırlıklı olarak tanımlayabilir. Çünkü beynindeki sinir ağının, karşılaşmalarından çıkardığı istatistiksel sonuç ağırlığı bu yönde olacaktır. Söz güzellikten açılmışken, bu duruma verilecek iyi bir örnek şu olacaktır: İnsanlar bir uzaylı medeniyetle karşılaşmış olsun: İnsanlar onları güzel olarak değerlendirmeyecektir. Güzellik için oluşturdukları tanımlarla uyumsuz olacaktır. Çünkü uzaylı medeniyet insana benzemeyecektir. Belki en basit güzellik tanımları olan “iki gözü, iki kolu, iki bacağı olması” ön beklentisine uymayacaktır. Makalede “Kendi kendine giden otomobil, ölümlü kazaya karışır.” örneği veriliyor. Şoförlerin defalarca geçtiği yollar vardır. Orada arabalarını gayet başarılı kullanırlar. Ama kar yağdığında algıları şaşırabilir. Yanlış karar verirler. Ve kaza yaparlar. Kar yağdığında kaza haberlerinde artış olur. Mesela şoförün, ezbere bildiği yolda koca yolcu otobüsünü uçurumdan düşürdüğü haberleri mevcuttur. İnsanların algıları da tamamen mükemmel çalışmaz yani, hatalı karar vermesine neden olabilir. Elbette kendi kendine giden otomobil çok dikkatli eğitilmelidir. Piyasaya çıktıktan sonra bile test edilmeye devam edilmelidir. Kaza yapması, çok dikkatli şekilde geliştirilmesinin sürdürülmesi için bir uyarıdır!
“Bana göre, yapay zekânın becerileri geliştikçe, beceriksizliklerinin sıklık ve şiddeti de artacaktır. Günümüzde kısıtlı bir alanda kullanılan yapay zekânın yaşattıkları, sadece buzdağının görülebilen ucudur. Birden fazla alanda yetkinliğe sahip genel maksatlı yapay zekâlar geliştirdiğimizdeyse, utanç verici durumlara düşmek, kaygılanmamız gereken meselelerin en sonuna düşecektir.” şeklinde ilginç bir öngörüyle sürüyor makale. İnsanlar okula gönderilir. Mümkün olduğunca eğitilmeye çalışılır. Böylece hayatı daha iyi anlayıp daha az hata yapması sağlanmaya çalışılır. Ama elbette insanın hataları sıfıra indirilemez. Bir çocuk, verilen eğitimi beklenmedik şekilde yorumlayabilir. Yanlış sonuçlara varabilir. Yetişkinliğinde istenmeyecek eğilimler gösterebilir. Mesela ırkçı eğilimler gösterebilir. İnsanın, verilen bilgileri tamamen doğru anlamasının bir garantisi yoktur. Aynı şekilde, yapay zekanın da verilen bilgileri tamamen doğru anlamasının bir garantisi olamaz. İnsan zekası, yapay zeka veya uzaylı zekası, zekanın her çeşidinin yanlış anlama olasılığı hep vardır. Yapay zeka geliştikçe yaptığı hatalar karmaşıklaşır. Eğitim süreci kontrol altında tutularak hataları azaltılabilir. İnsanların hataları yapay zeka kadar basit nedenlere bağlı değil. Ama şimdilik böyledir. Gelecekte yapay zeka insandan daha gelişmiş olacaktır. İşte o zaman, örneğin dışarıdan bakacak bir gözlemci, insanı yapay zekadan daha beceriksiz bulacaktır artık. İnsan beyni evrimleştikçe beceriksizliği azalmış olduğuna göre yapay zeka geliştikçe beceriksizliklerinin artacağını düşünmek çelişkili görünmektedir. Ha evet, yapay sinir ağı özensiz kurulur, eğitimine çok dikkat edilmezse beceriksizliği aratacaktır. Sadece odaklandırıldığı konuyu çözen değil, insan gibi konuların farkında olan Yapay Genel Zekaya özensiz bir yapay sinir ağıyla ulaşılamaz zaten. Dolayısıyla beceriksizliği belli bir konuda kalır.
Hiç yorum yok:
Yorum Gönder