• Can Duru

Otonom Araçlardaki Olası Ayrımcılık

İnsanların direksiyona dokunmadan kullanabilecekleri otonom araçların yaygınlığı artıyor. Bu arabalardaki hakimiyeti yapay zekâya bırakarak hem kendi hayatımızı hem de diğer kişilerin hayatını bir robota teslim ediyoruz. Her ne kadar insanların aklında yapay zekâların güvenilirliği hakkında endişeler olsa da Elon Musk’ın geçen gün paylaştığı bir tweet ile iddaa ettiğine göre otonom araçlar sürücülü araçlardan 10 kat daha güvenli bir hizmet sağlıyor. Elon Musk gibi otonom araç sektöründe olan kişiler birçok veri ile otonom araçların güvenliğini doğrulamasına rağmen insanlar halen bu teknolojilere güvenmekten korkuyor. Örneğin, gece karanlığında yapay zekânın siyahi kişiler ile karanlığı ayıramama olasılığı insanlar için endişe yaratıyor.

Markalar arasında giderek yaygınlaşan elektrikli arabalara ve bunların satış rakamlarına baktığımızda, 2040 yılına kadar yaklaşık 33 milyon otonom aracın yollarda olacağı düşünülüyor. Neredeyse kusursuz bir sistem gibi çalışan bu yapay zekâların insan sürücülerin yol açtığı bazı tehlikeleri ortadan kaldırma potansiyeli bulunuyor. Bir yapay zekâ sistemi direksiyon başında uyuya kalmadığı, dikkati dağılmadığı, en önemlisi telefonla oynayamadığı veya sarhoş olmadığı için birçok insanın ölümüyle sonuçlanabilecek araba kazalarını önleyebilir. Yapay zekâlar, insan hatalarını önlemede büyük rol oynayabilir ancak geleceği hayal ederken bu teknolojilerle alakalı ırkçılık ve cinsiyetçilik gibi başka endişeler de bulunuyor.

Trafikte kullanımda olan otonom araç
Trafikte kullanımda olan otonom araç


Cilt Tonu Algılama Sistemleri

Yeni model arabaların birçoğunda acil fren sistemi, yarı otonom sürüş gibi yapay zekâ destekli teknolojiler kullanılıyor. Arabalarımız yolumuza aniden bir çocuk, bisikletli veya insan atladığında bizden önce tepki veriyor ve bu şekilde insan hayatını kurtarabiliyor. Peki bu sistemler her durumda herkes için eşit standartlarda çalışıyor mu? Şu ana kadar yapılan hiçbir yapay zekâ algoritması tam anlamıyla mükemmel düzeyde çalışamıyor. Bu algoritmalar da insanlar tarafından hazırlanıyor ve hepimizin bildiği üzere insanlar birçok durumda hata yapabiliyor.


Her ne kadar makine öğrenmesi dediğimiz teknoloji ile yapay zekâ kendi kendine durumu anlayabilmeyi başarabilse de o öğrenme sırasında yaşanan neredeyse her şey araştırmacıların kontrolü altında oluyor. Bundan dolayı hazırlanan yapay zekâ sistemleri, çok az bir oranda olmasına rağmen yaratıcılarının ön yargılarını içerebiliyor ve öğrenimini araştırmacının ön yargısından dolayı olması gerektiğinden farklı bir şekilde geliştirebiliyor.


Devletler ve özel şirketler otonom araçların tam anlamıyla trafiğe çıkmaları için getirilmesi gereken yasal düzenlemeler üzerinde çalışıyor. İngiltere’deki yasalar hakkında inceleme yapan Hukuk Komisyonu’nun 2020 yılında yayınlanan bir araştırma yazısı otonom araçlarda insanlarda bulunan ayrımcı düşüncelerden dolayı oluşabilecek tehlikelerden bahsediyor.

Belirli insan yüzlerini tanıyan ancak diğerleri tanıyamayan yapay zekânın düşünme mantığı
Belirli insan yüzlerini tanıyan ancak diğerleri tanıyamayan yapay zekânın düşünme mantığı

Karanlık bir ortamda biz kendi gözlerimiz ile beyaz tenli insanları fark etmekte zorlanıyoruz, bu ortamda bir kamera koyu tenli insanları nasıl algılayabilir? Araştırmacılar, paylaştıkları yazıda tam olarak bu durumdan bahsediyor ve otonom araçlarda bulunan yapay zekâların, yeterli miktarda bu durumlara karşı simüle edilerek öğretilmediği için karanlıkta koyu tenli yüzleri tanımakta zorlanabileceğini vurguluyor. Ayrıca rapora göre koyu tenli insanlar dışında engelliler de risk altında bulunuyor:

“Sistemler, tekerlekli sandalye ve scooterların tüm çeşitleriyle başa çıkmak için yeterli miktarda eğitilmemiş olabilir.”

Araştırmacılar tarafından hazırlanmış makaleleri yayınlayan Arvix.org’da 2019 yılında paylaşılan bir raporda Hukuk Komisyonu’nun raporuna benzer bulgular bulunuyor. Henüz otonom araçların tam anlamıyla gelişmemiş ve yaygınlanmamış olduğu dönemlerde bile bu sorunun gündemde olması ve araştırmacılar tarafından yapay zekânın belli durumları tam olarak öğrenememesinin tehlikelerini anlatan bir rapor yayınlaması durumun ne kadar önemli olduğunu yansıtıyor.


Arvix.org’daki makalenin araştırmacıları, çalışmalarını gerçekleştirebilmek için otonom araçların yollarda gezinirken yol işaretlerini, yayaları ve diğer nesneleri tanımasına izin veren sekiz yapay zekâ destekli nesne algılama sistemlerini inceledi. Bu sistemleri, insan ten rengini sınıflandırmak için yaygın olarak kullanılan bir ölçek olan Fitzpatrick ölçeğine dayanarak iki farklı ten rengi kategorisinde bulunan insanları kullanarak test ettiler. Sistemin ortalama olarak sunduğu doğruluğu, daha koyu ten rengine sahip yaya görüntülerinden oluşan gruplar ile test edildiği zaman açık renk ten rengine sahip insanların görüntülerine oranla yüzde beş azaldı.

Fitzpatrick’in ten rengi skalası
Fitzpatrick’in ten rengi skalası

Bu durum maalesef ki bizlere, insanların içinde bulunan ön yargılardan dolayı yaratılan ve öğretilen yapay zekâların yeterli bir şekilde her durum ve her kişi için simüle edilemediğini gösteriyor. Böylece biz bu sistemleri kullanarak fark etmeden ayrımcılık yapılan kişilerin hayatlarını tehlikeye sokmuş oluyoruz. Günümüzde halen devam eden ırkçı olaylar ile mücadele etmeye çalışırken bu yapay zekâ sistemleri gibi yeterli miktarda eğitilmemiş yapay zekâlar ile geleceğimizi de riske atıyoruz.


Herkes için eşit olanakları sağlayan ve herkesin hayatını kolaylaştırmak için yaratılmış tarafsız yapay zekâ sistemleri geliştirmenin önemini kavramalıyız ve bu şekilde kendimize bir gelecek hazırlamalıyız. Koyu tenli insanları da tehlikeye atmamak için ilk olarak otonom araçlarda, yapay zekâyı eğitmek için kullanılan veri setlerindeki koyu tenli yayaların görüntülerinin sayısını artırmakla başlamalıyız. Yapay zekâ her geçen gün hayatımıza daha fazla dahil olurken, yapay zekâ geliştirme topluluğunun bu tür büyük zarar verici ön yargılara karşı durması tarafsız, adil ve güvenli bir geleceğin inşasında önemli bir rol oynuyor.

Kaynak: Interesting Engineering



Bu içerik Can Duru tarafından gelecekburada.net için hazırlanmıştır ve basılı veya çevrim içi yayınlarda dağıtımı konusunda hakları elinde tutar. Kaynak göstererek (ve link vererek) paylaşabilirsiniz.