top of page
  • Can Duru

Yapay Zekâ Ayrımcı Arkadaşlarını Yok Ediyor

İnsanları Ayrımcılığa Sürükleyen Yapay Zekâlar2018 yılında, önde gelen bir yapay zekâ girişiminde çalışan Liz O'Sullivan ve diğer araştırmacılar, internetten çıplaklığı ve diğer müstehcen görüntüleri otomatik olarak kaldırabilecek bir sistem geliştiriyorlardı. Müstehcen materyalleri tespit edebilmek için haftalar harcayan araştırmacılar ve onlarla birlikte çalışan Hintli geliştiriciler, yapay zekânın kullandığı veri tabanına milyonlarca çevrim içi fotoğraf göndererek onu eğitmeye başladı. Bu eğitimin amacı sistemin fotoğraflardaki müstehcen kısımları fark etmesi ve diğer kullanıcılara ulaşmadan onu internetten kaldırmasıydı. Ancak fotoğraflar gönderildikten sonra, O'Sullivan ve ekibi bir sorun fark etti. Hintli geliştiriciler, aynı cinsiyetten çiftlerin tüm resimlerini uygunsuz olarak sınıflandırıyordu ve bundan dolayı yapay zekâ herhangi bir çıplaklık içermeyen fotoğrafları bile internetten kaldırmayı amaçlıyordu. Araştırmacı O'Sullivan, ayrımcılık ile geliştirilen bu sistem ile ön yargının yapay zekâya ne kadar kolay sızabileceğinin farkına vardı. Bu teknolojinin acımasız bir Whac-a-Mole oyununa benzediğini vurguladı.

Kendi Arkadaşlarını Tespit Etmek ve Yok Etmek İçin Kurulmuş Bir TeknolojiAraştırmacı ve girişimci O'Sullivan, geçtiğimiz aylarda dünyanın düzenini değiştirmeyi amaçlayan Parity'nin CEO'su olarak atandı. Peki bu şirket diğer yapay zekâ firmalarından farklı olarak neyi amaçlıyor? Parity, bizlere yapay zekâ sistemlerindeki ön yargıyı tanımlamak ve ortadan kaldırmak için geliştirilen araçlar ve hizmetler sunuyor. Diğer bir deyişle, ön yargıyla geliştirilen diğer yapay zekâları ortadan kaldırmak için geliştirilen yapay zekâ sistemleri diyebiliriz. Birçok alanda bu sistemlere karşı önlemler alınmaya başlandı. Geçtiğimiz Nisan ayında Federal Ticaret Komisyonu, ön yargılı olan veya bireylerin istihdam, barınma, sigorta veya diğer yardımlardan yararlanmasını engelleyebilecek yapay zekâ sistemlerinin satışına karşı uyarıda bulunarak geliştiricilere bir gözdağı vermeyi amaçladı.

"Ön yargıları yıkmak gibi değişen zihniyetler bir gecede oluşmuyor ve bu durum, büyük şirketler hakkında konuşurken daha doğru olabilir. Büyük alanlarda sadece bir kişinin değil birçok kişinin fikrini değiştirmemiz gerekiyor." - O'Sullivan, Yapay Zekâ GeliştiricisiBir hafta sonra Avrupa Birliği, bu tür bir teknoloji sundukları için şirketlerin ceza alabileceklerini belirterek, geliştirilen teknolojiler için belirli kuralların bulunduğu taslak düzenlemeleri açıkladı. Bu iki uyarıya ek olarak geçtiğimiz hafta, çalışmaları ile politikayı bilgilendirmeyi amaçlayan hükûmet araştırma laboratuvarı Ulusal Standartlar ve Teknoloji Enstitüsü, teknolojinin tasarlanma ve geliştirilme şeklindeki değişiklikler de dahil olmak üzere işletmelerin yapay zekâdaki ön yargılarla nasıl mücadele edebileceğini ayrıntılarıyla anlatan bir öneri yayınladı.

Sistemlerdeki Ön Yargıyı Yıkmak Kolay mı?Geçtiğimiz birkaç yıl içinde yapılan araştırmalar, yüz tanıma servislerinin, sağlık sistemlerinin ve hatta konuşan dijital asistanların kadınlara, beyaz olmayan insanlara ve geçmişte ayrımcılığa maruz kalan diğer gruplara karşı ön yargılı olabileceğini gösteriyor. 2019'un sonlarında, New York'taki denetleyiciler, bir hastane tarafından kullanılan yapay zekâ algoritmasının sağlık durumları daha iyi olan beyaz hastalara durumu daha kötü olan siyahi hastalara göre öncelik verdiğini fark ettikten sonra yapay zekâdan sorumlu UnitedHealth Group hakkında bir soruşturma başlattı. Ön yargılı sistemleri yok etmek için yapay zekâ geliştiren O'Sullivan, bu sistemlerdeki ön yargıyı yıkmanın basit olmadığını vurguluyor.

"Geliştiriciler, ön yargısız sistemler için artık sistemlerin derinine inmemiz ve orada ne olduğunu görmemiz gerektiğini kabul ediyor."O'Sullivan, iki yıldan uzun bir süre önce işletmelere yapay zekânın sahip olabileceği ayrımcılık konusunda tavsiyelerde bulunmaya başladığında, şirketler ve yöneticiler tarafından genellikle şüpheyle karşılandığını belirtiyor. Pek çok yönetici ve mühendis, adil teknoloji inşa etmenin en iyi yolunun ırk ve cinsiyet gibi konuları görmezden gelmek olduğunu savunarak, “hiçbir şey bilmeme ve öğretmeme yoluyla adalet” kavramını benimsiyor. Maalesef bu durum yapay zekâ sistemlerinin taraflı olarak geliştirilmesine sebep oluyor. Veri tabanlarındaki verilerin birçoğu ırkçılık, ayrımcılık ve cinsiyetçiliğin yaygın olduğu dönemden ve bundan dolayı öğrendiklerini aynen uygulamak üzerine geliştirilen sistemler ayrımcılığın doğru bir şey olduğunu zannediyor. Bu şekilde yeni bir ön yargılı yapay zekâ geliştirilmiş oluyor. Birçok içeriğimizde yapay zekânın farklı konulardaki ön yargıları hakkında konuşmuştuk. Maalesef bunları nasıl çözebileceğimiz hakkında kesin ve mantıklı bir çözüm yolu aktaramamıştık. O'Sullivan'ın geliştirdiği kendi arkadaşlarını yok eden yapay zekâ sistemi ile gelecekte ön yargıların önüne geçebiliriz. Bir nevi insanlığın öğrettiklerinden dolayı insanlığın kendisine zarar veren ayrımcı yapay zeka sistemlerini insanlığın öğrettikleri ile kurtaran bir sistem geliştiriliyor. Kaynak: Medium
bottom of page