• Can Duru

Askerî Alandaki Robotlar Ne Kadar Etik?

Son yıllarla yıkıcı teknolojilerin gelişmesiyle birlikte farklı alanlarda yapay zekâ destekli robotlar görmeye başladık. Evimizin içinde yerleri süpürmek için akıllı temizlik robotlarından, hayat kurtarmak için çalışan tıbbi robotlara kadar birçok gelişmeye tanıklık ettik. Robotlar gün geçtikçe hayatlarımıza dahil olurken, etik konusu gündeme gelmeye başladı. Örneğin, arabayla giderken karşınıza bir canlı çıksa birçoğumuz ona zarar vermemek için kendimizi de riske atarak arabayı farklı bir tarafa sürebiliriz. Ancak bu durumdaki biz değil otonom bir araç olsaydı karşısındaki canlıya zarar vermek uğruna sürücüsünü mü korumayı tercih ederdi yoksa diğer canlıyı mı korumaya çalışırdı?

Otonom aracın ikilemde kaldığı duruma örnek
Otonom aracın ikilemde kaldığı duruma örnek

Eski ABD Ordusu Korucusu Paul Scharre, 2004’te Afganistan dağlarında devriye gezerken, keskin nişancı timinin yakınlarında etrafı inceleyerek yürüyen yaklaşık beş yaşında meraklı bir kız çocuğu gördü. Scharre’nin otonom silahlar hakkında ele aldığı “Army of None: Autonomous Weapons and the Future of War” kitabında belirttiği gibi küçük kız çocuğunun davranışları keşif görevine gönderilmiş bir düşman askerinin davranışlarına benziyordu. Yasal olarak, bu kız çocuğunu öldürmek savaş hukuku kapsamına girecekti ancak etik olarak yanlıştı ve Scharre bunu biliyordu. Bundan dolayı kız çocuğuna hiçbir şey yapmadılar ve çocuğun yoluna devam ederek oradan uzaklaşmasına izin verildi. Peki, o durumda Scharre yerine otonom bir silah devriye geziyor olsaydı? Yapay zekâ (AI) yasal olan ile etik olanı ayırt edebilir mi?

Devriye gezen iki otonom askeri cihaz
Devriye gezen iki otonom askeri cihaz

Otonom Silahların Etik Kuralları Hazır mı?

Son yıllarda, ölümcül otonom silah sistemlerinin etik olarak nasıl yönetileceği konusunda birçok tartışma gündeme geliyor. Neredeyse bütün ülkelerin orduları yapay zekânın da dahil olduğu bir geleceğe doğru ilerliyor. Bu ilerleme devam ederken bir yandan da ölüm kalım kararlarını vermek için gereken içgörüye sahip makinelerin nasıl programlanacağı hakkında cevaplanamamış pek çok soru bulunuyor.


Yapay zekâ araştırmacıları, teknoloji liderleri ve politikacılar, otonom silahların çığır açan bir hızla ilerlediğini kabul ediyor. Buna rağmen, bu teknolojiyi geliştiren ülkeler etik hususların yakın gelecekteki savaşları nasıl etkileyeceğine dair fikirleri dile getirmeye yeni başlıyor. Başka bir deyişle, insanlığın elinde merhamet duygusuna sahip olmayan bir savaş aleti var ve bu cihazın kullanımının etikliği hakkındaki fikirler daha yeni yeni ortaya atılıyor. Örneğin, ABD Savunma Bakanlığı’nın otonom silahlar hakkındaki yönergeleri, teknolojinin “silahların bir hareket yapmadan önce insan tarafından izin vermesi” gerektiğini belirtiyor.

Amerika’nın operasyonlarında kullandığı robot savaş köpeği
Amerika’nın operasyonlarında kullandığı robot savaş köpeği

Otonom Silahların Etikliği Hakkında Atılan Adımlar

Massachusetts Institute of Technology ve Carnegie Mellon gibi çeşitli üniversitelerden oluşan Savunma İnovasyon Kurulu, Savunma Bakanlığı yetkililerine silah programlarını yönetme konusunda rehberlik etmesi için 2019 yılında 5 yapay zekâ etik ilkesinden oluşan bir liste yayınladı.


Her ne kadar yapay zekâ destekli silahların büyük tehlikeleri bulunsa da dünya bu teknolojiyle ilerlemeye devam edecek gibi görünüyor. Neyse ki robotların savaşlardaki etikliği hakkındaki tartışmalar da dünya gündeminden düşmüyor. Bu duruma kanıt olarak; Amerika Savunma Bakanlığı, Eylül 2020’de Avustralya, Kanada, Danimarka, Estonya, Finlandiya, Fransa, İsrail, Japonya, Norveç, Kore Cumhuriyeti, İsveç ve Birleşik Krallık’ı içeren Savunma için Yapay Zekâ Ortaklığı’nın ilk toplantısına ev sahipliği yaptı. Bu gibi toplantılar ile insanların aklında hâlâ cevaplanmamış olan sorulara cevaplar bulunabilir ve endişeler azaltılabilir.

Yapay zeka silahları hakkında yapılan basın açıklamasından bir görüntü
Yapay zeka silahları hakkında yapılan basın açıklamasından bir görüntü

Otonom silahların etikliği büyük tartışmalara sebep oluyor, peki bu silahlar ne zaman kullanıma geçebilir? Aslında, New York Times haberinin bildirdiği üzere İngiltere, 2011 yılında Libya’da ateşlenen Brimstone füzelerinde halihazırda temel yapay zekâ teknolojisini kullanıyordu. Bu füzelerin programlanması bilgisayar mühendisleri için çok da zor değil. Hatta yapılan programlama ile sivil kayıpları en aza indirmek için otobüs ve tank gibi çeşitli araç türleri arasında ayrım yapılabilir.


İnsanları endişelendiren asıl nokta bu teknolojik sistemlerin herhangi bir açığının kötü amaçlı kişiler tarafından kullanılması ve insanların ölümüne yol açabilecek sonuçlar ortaya çıkarabilecek olmasıyla düşündürüyor. Araştırmacılar tarafından geliştirilen teknoloji ile bu teknolojinin de kaçınılmaz olacağı ön görülüyor. Bir diğer yandan bu duruma muhalefet olan birçok insan bulunuyor. Bundan dolayı, yakın gelecekte yapay zekâ destekli silahları görüp görmeyeceğimizi kestiremiyoruz.


Her ne olursa olsun hayatlarımızı tehlikeye atacak değil, hayat kalitemizi artıracak nitelikteki gelişmelere tanıklık etmek dileğiyle!

Kaynak: Interesting Engineering


Bu içerik Can Duru tarafından gelecekburada.net için hazırlanmıştır ve basılı veya çevrim içi yayınlarda dağıtımı konusunda hakları elinde tutar. Kaynak göstererek (ve link vererek) paylaşabilirsiniz.