top of page
  • Writer's pictureCan Duru

COVID-19 Başarısızlığına AI Çözümü

“Yapay Zekâ, COVID-19’da Başarısız mı Oldu?” başlıklı içeriğimizde COVID-19’da yapay zekâ, geliştirilen sistemlerde ortak olan konular ve en önemlisi sistemlerin niye klinik kullanıma uygun olmadığı hakkında konuşmuştuk. Bugünkü yazımızdaysa eksik verilerden kaynaklanan katil yapay zekâ algoritmalarının yaşadığı problemler ile daha doğru ve güvenilir verilerin sistemdeki önemine değineceğiz.

Laure Wynants ile Derek Driggs’in ekibi niye geliştirilen Korona algoritmalarını hiçe sayarak ortadan kaldırılmalarını istemiş ve umutsuz vaka olarak değerlendirmişlerdi? Aslında bu sorunun cevabını basit bir şekilde açıklayabiliriz: Denetleyici araştırma ekibi; otonom araçlarda, sosyal medyada ve işe alım gibi birçok farklı alanda gördüğümüz geliştiricisinin ayrımcılık anlayışından etkilenen yapay zekâdan dolayı insanların yaşamını yitirmesini istemiyordu.

Sistemleri geliştirirken neler yanlış gitti?

Önceki yazıda da bahsettiğimiz üzere algoritmaları geliştirirken Çin’e özel olan veriler, zaman gibi kısıtlı imkânlardan dolayı birçok problem ile karşılaşılmıştı. Bu sorunların arasında algoritmaların bir nevi umutsuz vaka olmalarının arkasındaki nedenin, araçlarını geliştirmek için kullandıkları verilerin kalitesiz olmasıyla bağlantısı bulunuyor. MR gibi Korona’yı tespit etmek için kullanılan tıbbi taramalar da dahil olmak üzere kovid hastalarıyla ilgili bilgiler, tüm dünyayı etkisi altına alan ve teknolojide 10 yıl ileriye götüren bir pandeminin ortasında hastaları tedavi etmek için mücadele eden doktorlar tarafından toplandı ve paylaşıldı.

Verilerimiz Nasıl Paylaşıldı?

Bu noktada hepimizin aklında bir soru işareti oluşuyor. Hastanede güvende olduğunu düşündüğümüz kişisel sağlık verilerimiz nasıl başka geliştiriciler ile paylaşılıyor? Hastaneye ilk gittiğimiz zaman hasta kaydımız yok ise yani diğer bir deyişle o sağlık kurumuna önceden hiç gelmediysek bizden birkaç tane form doldurmamız talep ediliyor. Bu formları dikkatle okuduğumuz zaman fark edebiliriz ki verilerimiz ile ne yapılabileceği hakkını kendi elimizle hastaneye veriyoruz. Bu veriler bize bir seçme hakkı bırakılmayarak küresel salgın gibi önemli durumlarda acil müdahale için kullanılabiliyor. Peki, sizce istenildiği zaman ailemiz dışında birçok kişiyle paylaşmadığımız sağlık verilerimizin başkalarıyla paylaşılması etik olabilir mi? Araştırmacılar, hızlı bir şekilde yardım etmek istediler ve nereden paylaşıldığı tam olarak bulunamayan veri setleri algoritmalarını tercih etmek zorunda kaldılar. Aslında bu durum çok riskli bir durumdu. İki seçeneğimiz vardı:

  1. Veriler doğru etiketlenebilmiş, algoritmaların kullanımına göre optimize edilebilen veriler olacağı için yapay zekâ tüm dünyada vazgeçilmez bir seçenek olacaktı.

  2. Doğru etiketlenemeyen, yanlış sonuçlar çıkarmamıza sebep olan veriler olması durumunda ise yapay zekâ sistemleri başarısız olacaktı ve beklediğimiz çıkışa ulaşamayacaktık.Bu iki durumdan ilkinin gerçekleşmesini ve dünyanın değişmesini isterdik ancak maalesef veriler hiç de yapay zekâ kullanımına uygun değildi. Bu durum, birçok aracın yanlış etiketlenmiş veriler veya ön yargılı olma olasılığı bulunan, bilinmeyen kaynaklardan gelen verilerin kullanılarak oluşturulduğu anlamına geliyordu. Göz göre göre yanlışı tercih etmek zorunda bırakılmak bu olsa gerek!

Frankenstein Veri Kümeleri

Driggs, birden çok kaynaktan bir araya getirilen ve aynı verileri (adının farklı olması gibi durumlardan dolayı tespit edilemeyen kopya veriler) içerebilen Frankenstein veri kümeleri olarak adlandırdığı sorunun altını çiziyor. Bu veri kümeleri, bazı araçların eğitildikleri aynı veriler üzerinde test edilmesine sebep oluyor. Bu algoritmaların olduğundan daha doğru görünmelerini ve insanları kandırmak için kullanılabileceği anlamına geliyor. Ayrıca sistemler, kaynağı belirli ve algoritmaların kullanımı için neredeyse mükemmel diyebileceğimiz veri kümelerinin kökenini de bulandırarak kullanılamaz hâle getiriyor. Bahsettiğimiz bozulma durumu, araştırmacıların modellerinin eğitimini çarpıtan önemli özellikleri gözden kaçırdığı anlamına gelebilir.

  1. Wynants ve Driggs’in araştırmalarına göre geliştiriciler, Korona geçirmemiş küçük çocukların göğüs taramalarını içeren bir veri setini, algoritmaların kovid olmayan vakaların neye benzediğini anlayabilmesi için örnek olarak kullandı. Ancak sonuçlar beklenildiği gibi çıkmadı. Yanlış veri ile algoritmalar, Korona hastalığı ile mücadele eden kişileri değil çocukları tespit etmeye başladı.

  2. Driggs'in ekibi, hastalar yatarken ve ayaktayken alınan taramaların karışımını içeren bir veri seti kullanarak COVID-19 için kendi modelini eğitti. Yatarken taranan hastalarda yapay zekâ yatan kişilerin kovid olduğunu varsaydığı için hastalık riskini tahmin etmeyi yanlış öğrendi.Bunun gibi hatalar, yapılan analizler sayesinde geriye dönüp bakıldığında çok açık bir şekilde görülebiliyor. Araştırmacılar, araçlarının hatalarını anlayabiliyorsa modelleri ayarlayarak bu algoritmalar düzeltilebilir ve hata risklerini azaltabilir. Ancak birçok algoritma ya verilerdeki kusurları tespit edecek tıbbi uzmanlığa sahip olmayan yapay zekâ araştırmacıları ya da bu kusurları telafi edecek yazılımsal becerilere sahip olmayan tıp araştırmacıları tarafından geliştirildi. Bu durumdaki asıl sorun iki farklı alanda uzmanlık gerektiren bir algoritmanın birlikte çalışma ile değil tek bir alandaki uzman kişiler tarafından geliştirilmesiydi.

“Araştırma için çok fazla gizlilik var.”

Hatalardan Nasıl Kurtulabiliriz?

Anlayabileceğiniz üzere daha iyi veriler kesinlikle çok yardımcı olabilir ancak kriz zamanında iyi veriler bulmak büyük bir sorun oluyor. Bu kriz anlarında en iyi veriyi bulmaktansa sahip olduğumuz veri kümelerinden en iyi şekilde yararlanmak daha önemli olabilir. Driggs, en basit ve etkili yöntemin yapay zekâ araştırmacılarının Koronavirüs ile mücadele eden sağlık çalışanları ile daha fazla iş birliği yapması olacağını belirtiyor.

Araştırmacıların sadece iş birliği yapmaları yetmiyor, aynı zamanda modellerini paylaşmaları ve nasıl eğitildiklerini açıklamaları gerekiyor. Böylece diğer geliştiriciler, algoritmaları akıllardaki ön yargılı yapay zekâ şüphelerine cevap bulunabilmesi için test edebilsin ve geliştirebilsin. Bunlar bugün yapabileceğimiz en önemli çözümlerden sadece ikisi ve belirlediğimiz sorunların belki %50'sini çözebilecek potansiyelleri bulunuyor. Londra merkezli küresel bir sağlık araştırma yardım kuruluşu olan Wellcome Trust'ta klinik teknoloji ekibine liderlik eden doktor Bilal Mateen de hastane ve teşhis formatları standartlaştırılsaydı verileri elde etmenin daha kolay olacağını belirtiyor.

"Modeller çok benzer. Hemen hemen hepsi aynı teknikleri küçük ince ayarlarla, aynı girdilerle kullanıyorlar ve hepsi aynı hataları yapıyor. Bütün bu insanlar zaten mevcut olan modelleri test etmek yerine yeni modeller üretselerdi, belki şimdiye kadar klinikte gerçekten yardımcı olabilecek bir şeyimiz olurdu." - Laure Wynants

Verisiz Yapay Zekâ Etsiz Lahmacuna BenzerBu sorunu çözmek için Dünya Sağlık Örgütü, uluslararası sağlık krizleri sırasında devreye girecek bir acil veri paylaşım sözleşmesi yapmayı düşünüyor. Mateen, araştırmacıların sadece kendi ülkelerindeki kuruluşlar ile sınırlı kalmayacağını ve uluslararası verilere erişimin kolaylaşabileceğini söylüyor. Haziran ayında İngiltere'de yapılması planlanan G7 zirvesinden önce, katılımcı ülkelerdeki önde gelen bilim insanları, gelecekte olası sağlık ile ilgili acil durumlara hazırlık için “veri hazırlığı” çağrısında bulundu.

Koronavirüs ile birlikte tüm dünyadaki teknolojik güç hızla ilerlerken aynı zamanda veri analizine olan ihtiyaç da giderek artıyor. Bu içeriğimizde tanıklık ettiğiniz üzere kullanılabilir verinin olmadığı bir gelecekte yaşamak neredeyse mümkün değil, eğer teknolojiden bahsediyorsak verilerimiz olmazsa olmaz ürünlerden biri oluyor.

Kaynak: Technology Review

bottom of page