• Can Duru

Yapay Zekâ Ayrımcı Arkadaşlarını Yok Ediyor

Yapay zekâ ile geliştirilen birçok yeni teknoloji bulunuyor. Bu teknolojiler dünyamızı geleceğe yaklaştırırken kimi zaman geçmişe götürebiliyor. Instagram, Twitter gibi sosyal medya uygulamalarında bile yapay zekâ bir hayli kullanılıyor. “İngiltere Ayrımcılık Yapan Sınav Algoritmasıyla Gündemde”, “Irkçı Yapay Zekâ: Twitter” gibi içeriklerimizde de detaylı olarak bahsetttiğimiz gibi maalesef yapay zekânın bize sunmak için hazırladığı ürünler çoğu zaman bir ön yargıya dayanabiliyor.


İyi bir haber vermek gerekirse bütün yapay zekâlar ön yargı içermiyor. Bağımsız araştırmacılar tarafından geliştirilen ve her durum için eğitilen sistemler bizler için hem ön yargısız hem de yararlı sonuçlar üretiyor.


İnsanları Ayrımcılığa Sürükleyen Yapay Zekâlar

2018 yılında, önde gelen bir yapay zekâ girişiminde çalışan Liz O'Sullivan ve diğer araştırmacılar, internetten çıplaklığı ve diğer müstehcen görüntüleri otomatik olarak kaldırabilecek bir sistem geliştiriyorlardı. Müstehcen materyalleri tespit edebilmek için haftalar harcayan araştırmacılar ve onlarla birlikte çalışan Hintli geliştiriciler, yapay zekânın kullandığı veri tabanına milyonlarca çevrim içi fotoğraf göndererek onu eğitmeye başladı. Bu eğitimin amacı sistemin fotoğraflardaki müstehcen kısımları fark etmesi ve diğer kullanıcılara ulaşmadan onu internetten kaldırmasıydı.


Ancak fotoğraflar gönderildikten sonra, O'Sullivan ve ekibi bir sorun fark etti. Hintli geliştiriciler, aynı cinsiyetten çiftlerin tüm resimlerini uygunsuz olarak sınıflandırıyordu ve bundan dolayı yapay zekâ herhangi bir çıplaklık içermeyen fotoğrafları bile internetten kaldırmayı amaçlıyordu. Araştırmacı O'Sullivan, ayrımcılık ile geliştirilen bu sistem ile ön yargının yapay zekâya ne kadar kolay sızabileceğinin farkına vardı. Bu teknolojinin acımasız bir Whac-a-Mole oyununa benzediğini vurguladı.

Wach-a-Mole oyunu, Türkiye’de genelde “köstebek avı” adı altında oynanıyor.
Wach-a-Mole oyunu, Türkiye’de genelde “köstebek avı” adı altında oynanıyor.

Kendi Arkadaşlarını Tespit Etmek ve Yok Etmek İçin Kurulmuş Bir Teknoloji

Araştırmacı ve girişimci O'Sullivan, geçtiğimiz aylarda dünyanın düzenini değiştirmeyi amaçlayan Parity'nin CEO'su olarak atandı. Peki bu şirket diğer yapay zekâ firmalarından farklı olarak neyi amaçlıyor?


Parity, bizlere yapay zekâ sistemlerindeki ön yargıyı tanımlamak ve ortadan kaldırmak için geliştirilen araçlar ve hizmetler sunuyor. Diğer bir deyişle, ön yargıyla geliştirilen diğer yapay zekâları ortadan kaldırmak için geliştirilen yapay zekâ sistemleri diyebiliriz. Birçok alanda bu sistemlere karşı önlemler alınmaya başlandı. Geçtiğimiz Nisan ayında Federal Ticaret Komisyonu, ön yargılı olan veya bireylerin istihdam, barınma, sigorta veya diğer yardımlardan yararlanmasını engelleyebilecek yapay zekâ sistemlerinin satışına karşı uyarıda bulunarak geliştiricilere bir gözdağı vermeyi amaçladı.

"Ön yargıları yıkmak gibi değişen zihniyetler bir gecede oluşmuyor ve bu durum, büyük şirketler hakkında konuşurken daha doğru olabilir. Büyük alanlarda sadece bir kişinin değil birçok kişinin fikrini değiştirmemiz gerekiyor." - O'Sullivan, Yapay Zekâ Geliştiricisi

Bir hafta sonra Avrupa Birliği, bu tür bir teknoloji sundukları için şirketlerin ceza alabileceklerini belirterek, geliştirilen teknolojiler için belirli kuralların bulunduğu taslak düzenlemeleri açıkladı. Bu iki uyarıya ek olarak geçtiğimiz hafta, çalışmaları ile politikayı bilgilendirmeyi amaçlayan hükûmet araştırma laboratuvarı Ulusal Standartlar ve Teknoloji Enstitüsü, teknolojinin tasarlanma ve geliştirilme şeklindeki değişiklikler de dahil olmak üzere işletmelerin yapay zekâdaki ön yargılarla nasıl mücadele edebileceğini ayrıntılarıyla anlatan bir öneri yayınladı.


Sistemlerdeki Ön Yargıyı Yıkmak Kolay mı?

Geçtiğimiz birkaç yıl içinde yapılan araştırmalar, yüz tanıma servislerinin, sağlık sistemlerinin ve hatta konuşan dijital asistanların kadınlara, beyaz olmayan insanlara ve geçmişte ayrımcılığa maruz kalan diğer gruplara karşı ön yargılı olabileceğini gösteriyor. 2019'un sonlarında, New York'taki denetleyiciler, bir hastane tarafından kullanılan yapay zekâ algoritmasının sağlık durumları daha iyi olan beyaz hastalara durumu daha kötü olan siyahi hastalara göre öncelik verdiğini fark ettikten sonra yapay zekâdan sorumlu UnitedHealth Group hakkında bir soruşturma başlattı.


Ön yargılı sistemleri yok etmek için yapay zekâ geliştiren O'Sullivan, bu sistemlerdeki ön yargıyı yıkmanın basit olmadığını vurguluyor.

"Geliştiriciler, ön yargısız sistemler için artık sistemlerin derinine inmemiz ve orada ne olduğunu görmemiz gerektiğini kabul ediyor."

O'Sullivan, iki yıldan uzun bir süre önce işletmelere yapay zekânın sahip olabileceği ayrımcılık konusunda tavsiyelerde bulunmaya başladığında, şirketler ve yöneticiler tarafından genellikle şüpheyle karşılandığını belirtiyor. Pek çok yönetici ve mühendis, adil teknoloji inşa etmenin en iyi yolunun ırk ve cinsiyet gibi konuları görmezden gelmek olduğunu savunarak, “hiçbir şey bilmeme ve öğretmeme yoluyla adalet” kavramını benimsiyor. Maalesef bu durum yapay zekâ sistemlerinin taraflı olarak geliştirilmesine sebep oluyor. Veri tabanlarındaki verilerin birçoğu ırkçılık, ayrımcılık ve cinsiyetçiliğin yaygın olduğu dönemden ve bundan dolayı öğrendiklerini aynen uygulamak üzerine geliştirilen sistemler ayrımcılığın doğru bir şey olduğunu zannediyor. Bu şekilde yeni bir ön yargılı yapay zekâ geliştirilmiş oluyor.

Ayrımcılığın yanlış olduğu öğretilmediği sürece insanlar gibi sistemler de ön yargıyı yapılması gereken bir davranış ve çıkarılması gereken bir sonuç olarak görüyor.
Ayrımcılığın yanlış olduğu öğretilmediği sürece insanlar gibi sistemler de ön yargıyı yapılması gereken bir davranış ve çıkarılması gereken bir sonuç olarak görüyor.

Birçok içeriğimizde yapay zekânın farklı konulardaki ön yargıları hakkında konuşmuştuk. Maalesef bunları nasıl çözebileceğimiz hakkında kesin ve mantıklı bir çözüm yolu aktaramamıştık. O'Sullivan'ın geliştirdiği kendi arkadaşlarını yok eden yapay zekâ sistemi ile gelecekte ön yargıların önüne geçebiliriz. Bir nevi insanlığın öğrettiklerinden dolayı insanlığın kendisine zarar veren ayrımcı yapay zeka sistemlerini insanlığın öğrettikleri ile kurtaran bir sistem geliştiriliyor.

Kaynak: Medium



Bu içerik Can Duru tarafından gelecekburada.net için hazırlanmıştır ve basılı veya çevrim içi yayınlarda dağıtımı konusunda hakları elinde tutar. Kaynak göstererek (ve link vererek) paylaşabilirsiniz.