Algoritmayla gelen ölüm nasıl denetlenecek?

İlk silahlı drone örneklerinden biri olarak kabul edilen ve kimin geliştirdiğine dair çelişkili veriler içeren the Ruston Proctor Aerial Target, 100 yıldan uzun süre önce uçurulduğunda, bunun on yıllar boyu sürecek bir tartışmanın ilk adımı olduğunu, herhalde kimse tahmin etmiyordu. Zamanla yıldızı parlayan drone’lar, insanlığa “uzaktan kontrol edilebilen bir savaşın” mümkün olduğunu gösterdi.

Özellikle son 15 yıldır güçlü orduların vazgeçilmez bir parçası haline gelen drone’lar, yapay zekâ teknolojisinin de entegre edilmesiyle makinelerin kontrolünde ya da yarı otonom bir yapıya büründü. Yani artık insanlık uzaktan kontrol imkânının ardından, neredeyse “hiçbir şey yapmadan savaşabileceğini” de görmüş oldu. Sadece drone’lar değil, savaş jetleri ve savaş gemisi füzeleri başta olmak üzere pek çok silah ve silahlı araç yapay zekâ ile entegre çalışabiliyor. Bunların büyük bir kısmı bugün son kontrolde hâlâ insanların denetiminde olsa da, gelecekte tam otonom silahların kullanımının yaygınlaşması bekleniyor. İşte sözkonusu tartışma da tam bu noktada alevleniyor.

Otonom Silahlara Kimler, Neden Karşı?

Bugün otonom silah sistemleri (OSS), karada daha kısıtlı sayıda “insan” askerle başarılı operasyonlar yürütülmesini sağlıyor, çatışmalarda can kaybını azaltıyor, insan gözüyle görülemeyecek ya da ayırt edilemeyecek hedefleri 12’den vurabiliyor ve en önemlisi hedefi gördüğü anda insan refleksinden çok daha kısa sürede harekete geçip atış yapabiliyor. Peki bu kadar yararlı bir teknoloji üzerine bu tartışma neden?

İkiz Kuleler’in vuruluşunu takip eden ve CIA’in Afganistan üzerinde silahlı drone kullanımını artırdığı dönem olan Şubat 2002’de insansız bir Predator (avcı) drone Usame bin Laden olduğunu düşündüğü hedefi vurmuş, ancak sözkonusu kişinin hurda metal parçaları toplayan masum bir sivil, Daraz Khan olduğu anlaşılmıştı.

İşte tam da bu gibi talihsiz olayların yaşanması ve geleceğe dair endişeler sebebiyle makinelere ölümcül silahların teslim edilmesine karşı çıkan “Stop Killer Robots” (Katil Robotları Durdurun) kampanyasının Kasım 2019 itibariyle güncel verilerine göre 30 ülke, 130’dan fazla sivil toplum kuruluşu, 4.500 yapay zekâ uzmanı, Birleşmiş Milletler Genel Sekreterliği, Avrupa Parlamentosu, İnsan Hakları Parlamentosu Raportörleri, Nobel Barış Ödülü almış 26 önemli kişi ve kamuoyunun yüzde 61’i yüzde 100 otonom silahlara karşı çıkıyor. 

Yani Daraz Khan’ın ölümüyle kıvılcımlanan, “Stop Killer Robots” kampanyasıyla yükselen tam otonom silah kullanımı endişesi, bu teknolojinin tamamen yasaklanmasına kadar gidebilecek bir tartışmaya evrilmiş durumda. Otonom silah sistemlerinin gelişimi sürerken yürürlüğe sokulması gerektiği ifade edilen yasal düzenleme ve kısıtlamalar üzerine devam eden politik tartışmalar; hem akademi hem siyasi çevre, hem de kamuoyunun dikkatini çekiyor.

Tartışmanın odağında, OSS’nin uluslararası yasalara nasıl meydan okuyabileceği ve etik kaygılar yer alıyor. Tam otonom silahlarla güç, makinelerin eline veriliyorken; onların insana has, vicdan gibi etik değerlerden yoksunluğunun altı çiziliyor ve bir makineye insan hayatını bitirme kararı verme yetkisini sunmanın doğru olup olmadığı tartışılıyor. Daha önce benzer tartışmalar sonucu nükleer silah ve kör edici lazer silah kullanımına karşı uluslararası anlaşmalar imzalanmıştı. Aynısı otonom silah sistemleri için de yerine getirilebilir mi? 

Kontrolör Olarak İnsan Müdahalesi Olumlu mu, Olumsuz mu?

Tam otonom silah fikrine karşı öne sürülen pek çok çözüm önerisi var. Bunlardan biri, ilk olarak Britanya merkezli sivil toplum kuruluşu Article 36 tarafından önerilen ve bugün ülkeler, diğer STK’lar ve akademik çevrelerce kabul gören “Meaningful Human Control” (MHC), yani kabul edilemez, gereksiz ya da istenmeyen zararı önlemek için kısıtlı da olsa insan kontrolünü devrede tutma nosyonu MHC’ye göre yapay zekâ kontrolünde silahlar olsa da, yönetim sürecine muhakkak bir insan da kontrolör olarak müdahil olmalı.

Peki bu çözüm için yeterli mi? “Gücün Doğru Kullanımına Karar Vermek: Silah Sistemlerinde İnsan-Makine Etkileşimi ve Ortaya Çıkan Normlar” başlıklı akademik makalesinde Dr. Hendrik Huelss, MHC’nin otonom silah sorununa çözüm olarak yetersiz kaldığını ifade ediyor. “Kontrol” ve “otonomluk” kavramlarının birbiriyle ilintili ve çok katmanlı kavramlar olduğuna dikkat çeken Huelss, bu sebeple MHC’nin kavramsallaştırma aşamasında soruna yol açacağı konusunda uyarıyor.

Yapay zekâ kontrolündeki teknolojilerin rolü yükselirken, “Meaningful Human Control” girişiminin düşüşünün hızlandığına işaret edilen makalede, sözkonusu insan etmeninin her daim önemli olduğuna ancak bunun pratikte problemlere yol açacağına dikkat çekiliyor.

Özellikle savaş jetleri, drone’lar ve savaş gemisi füzelerinde karmaşık bir insan-makine etkileşimi sözkonusu. Bu aşamada insanların “anlamlı” bir kontrol mekanizması görevi göremediğini iddia eden Huelss, bunun sebebi olarak da insanın yine sistemin sağladığı bilgilere dayalı hareket etmesini ve gerçeğin elektronik ortamdaki temsilinden şüphe edebilecek temele sahip olmamasını gösteriyor. 

Bu eleştiriye bir örnek, “dost ateşi çıkmazı”. 2003 yılında Irak’ta Britanya’ya ait Tornado savaş jetinden gelen dost ateşini saldırı olarak algılayan ABD’ye ait Patriot füzesi yapay zekâsı Tornado’yu vurarak düşürmüş, iki İngiliz askerinin ölümüne sebep olmuş; bu olay ülkeler arasında krize neden olmuştu.

Aynı yıl yine bir Patriot, ABD Deniz Kuvvetlerine ait Hornet savaş jetini yine Irak’ta düşürmüştü. Başka bir kazada ise F-15E Strike Eagle, yine dost ateşi sebebiyle en az bir ABD askerinin ölümüne sebep olmuştu. Huelss, bu vakalarda, sorumlu “insan” askerin ve hatta askerlerin duruma müdahale imkânı olmasına rağmen etmediğine, dijital veriye güvendiğine, dolayısıyla teknolojinin insan performansına ket vurduğuna dikkat çekiyor.

Peki insan kontrolü başarısızsa veya olmamalıysa, tüm bu otonom silahları tamamen makinelerin yönetimine mi bırakmalıyız? İşte Huelss, buna karşı normları öne sürüyor. Normların yapay zekâya kontrol devri sürecinde bir çeşit “uygunluk ölçeği” olarak kabul edilebileceğini belirten Huelss, “Direkt olarak teknik ve fonksiyonel sürecin bir ürünü oldukları için, bu normlar, politik tartışmaların aksine usule ait, yani konuyla daha ilintili olacaktır” diyor.

Makalede; yasal, etik ve prosedürel olmak üzere üç çeşit norm üzerine gidiliyor. Yasal normların, yasal doğruluğun sınırlarını çizdiği ve yasal çerçevede nelerin yasak olduğunu belirlediği; etik normların insanlara manevi açıdan nelerin doğru olduğunu gösterdiği belirtiliyor. Prosedürel normların ise neyin uygun olduğuna dair belirli yaklaşımların normalliğinin teamülü neticesinde ortaya çıktığı ifade ediliyor. Sonuç olarak, tüm bu normlarla, otonom silah sistemlerinde insanlık için yararlı bir çerçeve çizilebileceğine olan inanç yineleniyor.

Bir Diğer Çözüm: Denetleyici Kurumlar

Peki OSS sorunsalına yasal düzenlemeler, Meaningful Human Control ve düzenleyici normlardan başka çözüm önerisi yok mu? Colorado Boulder Üniversitesi Bilgisayar Mühendisliği öğretim üyesi, aynı zamanda çalışmaları DARPA tarafından fonlanan Dr. Christoffer Heckman, theconversation.com’da yer alan 4 Aralık 2019 tarihli makalesinde başka bir çözüm önerisinden bahsediyor.

Bugün şirket, üniversite ya da hükümete bağlı laboratuvarların çatısı altında, insanlar üzerine yapılan çalışmaları denetleyen inceleme kurulları, Heckman tarafından örnek bir model olarak gösteriliyor. Bugün otonom silah çalışmalarının da aynı yerlerde sürdürüldüğünü hatırlatan Heckman, özellikle üniversitelerde kurulacak denetleme kurumlarının otonom silah çalışmalarını inceleyip kabul ya da reddedebileceğini, belirli konularda çalışılmasını yasaklayabileceğini; böylece istenen seviyede bir denetim elde edilebileceğini ifade ediyor. Bu tip kurumların erişim ağının kısıtlı olduğunu itiraf etse de Heckman, otonom robot araştırmaları kapsamına sokulacak bir denetim merciinin, iyi bir “ilk adım” olabileceğini vurguluyor. 

Meaningful Human Control, kısıtlayıcı ya da yönlendirici normlar, denetleyici kurumlar veya yasal düzenlemeler... Otonom silahları istenen denetime sokabilecek ve kamuoyunun bugün otonom silahlara karşı çıkan yüzde 61’lik kısmının güvenini kazanacak denetleyici güç bunlardan biri olacak mı bilemiyoruz.

İnsanın her daim bir kontrolör olarak OSS işletim sürecinin içinde bulunması gerektiğini söylemek kolayken; dost ateşi çıkmazı ise yapay zekâ ile çalışmanın, askerin performansına limit koyup koymadığını sorgulatıyor. Her yıl düzenlenen kongrelerde yapay zekâ alanında uzman kişiler bir araya gelerek yepyeni çözüm önerilerini birbirleriyle paylaşıyor ancak diğer yandan, uluslararası askeri güç savaşının tetiklediği algoritmayla gelen ölüm tehlikesi artıyor.  

Kaynak: STM ThinkTech

Yorum yapın