• Can Duru

AI Bizi Geleceğe mi Geçmişe mi Götürüyor?

Şu ana kadar birçok içeriğimizde yapay zekânın bizleri nasıl inanılmaz boyutlara süreklediği hakkında konuştuk ve konuşmaya devam ediyoruz. Her yeni günde robot köstebeklerden uçan arabalara, otonom sürüşlerden akıllı lensler kadar birçok yeni teknoloji sayesinde geçmişte yapamadığımız olayları yapmamızı sağlayan teknolojiler ile tanışıyoruz. Bu gelişmeler dolayısıyla yapay zekâ, makine öğrenimi ve robotlar giderek hayatımızın birer parçası hâline dönüşüyor. Hatta gelişen teknolojiler ile o kadar üst boyutta bir ilişki kuruyoruz ki robotlara aşık olmadan önce neleri bilmemiz gerektiğini merak ediyoruz.


Sizce de geldiğimiz durum hem çok güzel hem de biraz korkutucu değil mi? Teknolojik açıdan her geçen gün ilerlerken, 5G gibi yeni ürünlerle tanışırken başka bir açıdan yapay zekâ bizi geçmişe doğru sürüklüyor olabilir mi? Avustralya yapımı bilim kurgu filmi “Predestination”da olduğu gibi gelecekte, teknolojinin her şeyi ele geçirdiği bir gün geçmişe giderek her şeyi değiştirmemiz gerekebilir.


Geçmişe mi yoksa geleceğe mi gidiyoruz?

2016 yılında Amazon Rekognition adında bir yapay zekâ sistemi geliştirdiğini duyurdu. Amazonun yapay zekâsı, İngilizce’de tanıma anlamına gelen “recognition” kelimesinden gelen harf oyunu yapılarak konulan ismi ve yapabildikleri ile tüm dünyanın dikkatini çekebilmeyi başarmıştı. Bu teknoloji, şirketlerin nesneleri, insanları, sahneleri ve hatta insanların yüzünü tanıyarak duyguları sınıflandırmasına ve tanımlamasını mümkün kılıyordu. Amazon geliştirdiği sistemin reklamını yaparken “Son Derece Doğru Yüz Analizi” sloganını kullanıyordu ve bu şekilde kamu güvenliği vakası kullanımlarına yönelik pazarlamayı başardılar.


Örneğin, meydanlardaki kameralar Rekognition ile insanların yüzünü tanıyabiliyor ve sabıka kaydını bile çıkarabiliyordu. Açık alanlar da dahil olmak üzere dünyanın her yerinde kullanılabilecek ve bizleri analiz edebilecek bir teknolojiden bahsediyoruz. Amazon’un sistemi gizliliğimizi ihlal ediyor olabilir mi? İşte, bu soruya yanıtımız maalesef bulunmuyor. Bu teknolojiyle geleceğe doğru gittiğimizi hissediyor olabilirsiniz. Aslında biz de öyle hissediyoruz ama maalesef her şey göründüğü gibi olmuyor.

Amazon Rekognition tarafından fotoğraftaki bölümlerin isimlendirilmiş hâli
Amazon Rekognition tarafından fotoğraftaki bölümlerin isimlendirilmiş hâli

Öncelikle biraz yapay zekâ ve makine öğreniminden bahsedelim. Bu teknolojiler bir kişinin bir görüntüde nerede olduğunu tahmin etmekten oyun oynamayı öğrenebilmeye kadar her şeyi içeriyor.


Makine öğrenimi, bazı girdileri ortamdan alarak etkenlere karşı uygun bir sonuç üretebilmeyi sağlıyor. Sistem; sesimiz, girdiğimiz uygulamalar gibi bizim kişiliğimizi yansıtan olayları kontrol ederek gerçek hayata uygun sonuçlar üretmeyi mümkün kılıyor. Makine öğreniminin karmaşık hâli derin öğrenme, görüntüdeki her bir piksel gibi bazı ince detayları inceleyen ve bunları birden çok gizli katmana sahip bir ağ üzerinden analiz eden sinir ağı olarak biliniyor. Otonom araçlarda kullanılan bilgisayar görüşü, akıllı asistanların kullandığı doğal dil işleme gibi yapay zekâ olarak adlandırdığımız ürünlerin çoğu aslında derin öğrenme teknolojisini barındırıyor.


Bir yapay zekâ eğitilmemiş ise diğer bir deyişle daha önce hiç senaryo görmediyse ne olur?

Bu sorunun cevabını basitçe verebiliriz. Yapay zekâ sistemleri bir girdi olmadığı sürece mantıklı bir sonuç üretemiyor. Sistem, yalnızca eğitildiği konu hakkındaki bütün detayları biliyor ve bu eğitimden elde ettiği bilgileri analiz ederek uygun olanı çıktı olarak veriyor. Bir yapay zekâya İngilizce konuşmayı öğrettiğiniz zaman, onun Türkçe konuşması mümkün olmuyor. Sistem aynen günümüzdeki Apple HomePod mantığında çalışıyor; Homepod sadece İngilizce’de doğal dili işleyebildiği için Türkçe biçimde kullanımı mümkün olmuyor.


Bu duruma bir örnek olarak, öğrenme çağında olan ve sürekli soru soran bir çocuğu düşünebiliriz. Toplumda her zaman ilk eğitimin aileden geldiğini ve çocukların ebeveynlerinden öğrendiklerini söylüyoruz. Peki, neden? Ebeveynler çocuklarıyla birlikte fazla zaman geçirdiklerinden dolayı onların gelişimi ve düşünmesi üzerinde büyük etkileri oluyor. Kısacası bir çocuğun ailesinden ne görürse onu yapacağını söyleyebiliriz. Aynı durum yapay zekâ ve makine öğrenimi için de geçerli. Girdiler üzerinden bir model öğreniyor, çıktı olarak da aynı çocuk gibi öğrendiğini gerçekleştiriyor.


Yapay Zekânın Sebep Olduğu Kötülükler

Öğrendiğini aynen uygulayan bir sistemin neden kötü olduğunu anlamak için Microsoft Chat botu Tay.ai‘ye bir göz atabiliriz. Twitter’da insanlarla etkileşime girmesi için geliştirilen yapay zekâ destekli robot Tay aslında insanları sevdiğini iddia eden tatlı bir robottu. Ancak, 24 saatten kısa bir süre içinde öğrendiğini aynı şekilde uygulayan yapay zekâ sistemi sayesinde Tay; ırkçı, cinsiyetçi ve korkunç ifadelerle dolup taştı.


Aslında Tay, makine öğrenimi teknolojisini kullanan bir sistem olarak doğal olanı yaptı ve ona verilen cevapları öğrenerek sonuçlar çıkarmaya başladı. Ancak insanların verdiği cevaplar yani öğrendiği cevaplar hoş olmayınca, Tay da etik olmayan cümleler kurmaya başladı. Bundan dolayı Tay’ın açıklamaları çok hızlı bir şekilde tatlı açıklamalardan rahatsız edici açıklamalara doğru gitti ve piyasaya sürüldükten sadece 16 saat sonra yetkililer tarafından Tay kapatıldı. Tay, yapay zekâ ve makine öğrenimi sistemlerinin yanlış etkilerden nasıl öğrenebileceğinin ve gerçek amaçlarından nasıl uzaklaşabileceğinin klasik bir örneği olma ünvanını taşıyor.

Tay’ın kapatılan Twitter hesabına ait bir görüntü
Tay’ın kapatılan Twitter hesabına ait bir görüntü

Peki Tay’a bazı hassas konulara girmemesini öğretirsek kısıtlarsak ne mi oluyor? Microsoft, diğer sohbet botu Zo ile bu soruyu da yanıtladı. Zo, aşağılayıcı olabilecek hiçbir konuya cevap vermemek üzere eğitildi ancak bu da bazı problemlere sebep oldu. Ne yazık ki botun önceden kötü içeriklere cevap vermemek üzere eğitilmesi de ortalığı karıştırdı. Çünkü Zo botu Ortadoğu ile ilgili hiçbir şeye cevap vermiyordu. İnsanlar arasında ayrımcılık yapıyordu; eğitmenleri tarafından ayrımcılık yapmak üzerine eğitilmişti. Zo, Aralık 2016’da piyasaya sürüldü ve 2019 itibariyle ayrımcılık ve ırkçılık yaptığı gerekçesiyle çoğu uygulamadan kaldırılmak zorunda kalındı.


Peki Yapay Zekâ ve Makine Öğrenimi bizi nasıl geçmişe götürüyor?

Tay’ın bu duruma uygun bir örnek olduğunu belirtebiliriz. Sistemler sahip oldukları veriler ile eğitiliyor. Bir modeli ırkçı olduğu için ödüllendirirseniz ve doğru yaptığı düşüncesi üzerinden eğitirseniz kısa bir süre içinde ırkçı bir sisteme sahip olabilirsiniz. Aslında, böyle eğittiniz bir sistem şimdiye kadarki en ırkçı ürün olabilir. Çünkü geliştirilen teknoloji eğitildiği konuda başarılı olabilmek için bizim düşünemeyeceğimiz sözler ve davranışlar ile ırkçılık yaparak eğitimini başarıyla tamamladığını gösterebilir.


İçeriğin başında, Amazon Rekognition’ın bir sürü görüntü ile yapay zekânın insan duygularına kadar birçok faktörü anlayabildiğini belirtmiştik. Geliştirilen tanıma sistemi aslında ön yargılıydı, çoğunlukla beyaz erkek yüzlerini tanıyordu ve siyah kadın yüzlerini tanıyamıyordu. Bunun tek bir açıklaması olabilir, sistem bu şekilde eğitildi ve bu yüzden bu sonuçları verdi. Amazon sadece taraflı bir sistem geliştirmekle kalmadı, aynı zamanda Amerikalı Bilgisayar Uzmanı Joy Buolamwini‘nin Rekognition üzerine yaptığı çalışmanın sonuçlarının Massachusetts Teknoloji Enstitüsü(MIT) tarafından yayınlanmasına rağmen inandırıcı olmadığını iddia etti ve insanları geliştirdikleri sistemin tamamen tarafsız olduğu konusunda inandırmaya çalıştı.

Yayınlanan araştırmada çıkan sonuçlara göre sistemin taraflı olarak bakması sonucunda çıkan başarı oranları, siyah tenli insanlarda (özellikle de kadınlarda) başarı oranının büyük oranda düştüğünü görebiliyoruz.
Yayınlanan araştırmada çıkan sonuçlara göre sistemin taraflı olarak bakması sonucunda çıkan başarı oranları, siyah tenli insanlarda (özellikle de kadınlarda) başarı oranının büyük oranda düştüğünü görebiliyoruz.

Amazon’un benzer yazılımları zaten birçok devlet tarafından kullanılıyor ve maalesef çoğu yazılımın olumsuz ön yargısı bulunuyor. Bu sistemler, taraflı ve ırkçı eğitimlerinden dolayı siyah tenli insanların aynı geçmişe sahip beyazlara göre yeniden suç işleme olasılığının daha yüksek olduğunu tahmin ediyor ve insanlar arasında büyük bir ayrımcılığa sebep oluyor. Tüm bu analizlere ve eğitimlere bakılınca, yapay zekânın kaçınılmaz olarak yaşamın birçok farklı sektöründe ırkçılığı ve ön yargıyı azalttığına değil, artırdığı sonucuna götürüyor.

Yapay zekânın her zaman bizi ileriye götürdüğünü belirtiyoruz ama 21. yüzyılda bile ırkçılığa teşvik edilen ve ayrımcı sonuçlar çıkaran sistemler ile nasıl ileriye gidebiliriz? Aslında bu sistemler bizi tam tersi yönde yani geçmişteki ilkel düşüncelere doğru götürüyor. Amazon Rekognition gibi sistemler olduğu ve eğitimler tarafsız bir şekilde tamamlanmadığı sürece zaman ilerliyor ancak biz gelecekten uzaklaşıyor olabiliriz.

Kaynak: Medium

Bu içerik Can Duru tarafından gelecekburada.net için hazırlanmıştır ve basılı veya çevrim içi yayınlarda dağıtımı konusunda hakları elinde tutar. Kaynak göstererek (ve link vererek) paylaşabilirsiniz.