Yapay Zeka ile Hareket Eden Savaş Drone'ları, Katil Robotlar Çağını Başlatabilir mi?
yapay zeka ve makine öğrenmesi üzerine master yapan birinden
1. "emir almadan kendi kararıyla saldırdı" "hiçbir yönlendirme yapılmadan" cümlesi yanıltıcı. çünkü zaten emir dediği şey saldırının onayı, yoksa drone bayırlarda ineklere bakarken "dur lan şurada terörist mi var" diye kafasına esince gitmiyor bir yere. belirli koordinatlar arasında uçuş emri verilmiş, taramasından gelen verilerden elde ettiği sonuç eğer belirli bir threshold değerini aşarsa, onay beklemeden saldır komutu verilmiş. ortada tümüyle otonom bir alet yok zaten tamamen otonom kendi kararlarını alan bir yapay zeka sistemi de yok, olsa çağ atlardık. buradaki drone belirli komutları baştan almış anlayacağınız.
2. bahsedilen şey yapay zeka değil, yapay zeka daha gerçeklenmedi çünkü. bahsedilen şey makine öğrenmesi algoritması ile eğitilmiş bir drone. saldırılması istenilen hedeflerin yüz binlerce fotoğrafı eğitim seti olarak sisteme yollanıyor, algoritma matematiksel modellemeler ile bu hedefleri (fotoğrafları) genel bir modele oturtuyor. daha sonra salıyorlar bunu gökyüzüne, kendisine verilen veriler doğrultusunda tarama yapıyor ve önceden bu genel modele oturttuğu sisteme uyan bir görüntü yakalarsa saldır emri gerçekleştiriyor.
3. yapılan şey bence hatalı. şu an makine öğrenmesi sistemlerini biz insanlara destek olması amacıyla kullanıyoruz. eğer gerçekten saldır emri onayı verilmeden saldıran bir drone ortada dolaşıyorsa bu endişe verici. halihazırda bulunan modeller tümüyle güvenilir değil ve kesinlikle bir insan onayına ihtiyaç var. eğer ne yaptığınızı biliyorsanız bir makine öğrenmesi algoritmasını yanıltmak o kadar da zor değil. bir çocuk parkını hedef zannetmesi (zannettirilmesi) içten bile değil.
konu hakkında yeni ve çarpıcı bir video yayınlanmıştır
video, çetelerin ve terörist grupların düşmanlarını öldürmek için yapay zeka destekli robotları kullandığı bir geleceği konu alıyor. insanlar birlik olmaz ise "slaughterbot"ların (katliam robotu) insanlardan daha büyük bir tehdit oluşturacağı konusunda uyarıyor.
birleşmiş milletler, insanları hedef alan otonom silahların yasaklanmasını ve diğer silah türlerini sınırlandırmayı tartışmak üzere 13 aralık 2021'de toplandı. görüşmeler 17 aralık 2021'de sonlanacak.
videoyu hazırlayan future of life institute (yaşamın geleceği enstitüsü) bu toplantı öncesinde yapay zeka destekli drone sürülerinin arkasındaki teknolojinin bu katliam robotları aracılığı insan toplumuna zarar verebileceği konusunda uyarıyor ve birleşmiş milletler'i bu tip robotları yasaklamaya davet ediyor.
videoda gösterilen senaryoların gerçek hayattaki versiyonları da mevcut tabii ki. hatta bunlardan biri bizim ülkemizden.
mart 2020'de türk yapımı kargu-2 insansız hava aracı insan hedefe yönelik ilk otonom saldırıyı gerçekleştirmiştir. ekşi sözlük'teki "kargu-2 iha'nın katil robotlar çağını başlatması" başlığında bu konuyu uzun uzun tartışmışız.
kasım 2020'de israil istihbaratı, iran'ın nükleer programının önemli isimlerinden mohzen fakhrizadeh'i uzaktan kumandalı bir makineli tüfek kullanarak öldürmüştür. makineli tüfek, silahı hedeflemek için yapay zeka kullanıyor ve fakhrizadeh'in konvoyunu vurmak için bir operatörün komutu ile kamera beslemesi arasındaki 1.6 saniyelik gecikme süresini yapay zeka aracılığı ile gidermiştir.
2020'de yapılan abd ordusu birliği toplantısında ghost robotics, tüfek silahlı dört ayaklı bir insansız hava aracı sergilemiştir.
video tüm karamsarlığına rağmen umut verici bir son ve mesaj ile bitiyor. birleşmiş milletler "slaughterbot"ları yasaklamak üzereyken birbirini öldürmek üzere olan iki insan silahlarını bırakarak "slaughterbot"un kendilerini öldürmesini önlüyor ve birleşmiş milletlerin yasak kararı ile sonlanıyor.
videonun sonundaki durumun gerçekleşmesi, sürmekte olan, konvansiyonel silahlar sözleşmesinin gözden geçirilmesi için yapılan altıncı konferansa bağlı.
videoyu yayınlayan yaşamın geleceği enstitüsü ve uluslararası kızılhaç komitesi (icrc) gibi kuruluşlar devletlerin güç kullanımında yeterli insan kontrolü ve yargısının korunacağı, yasal olarak bağlayıcı kurallar getirilmesini talep ediyorlar.
özetle birinin öldürülüp öldürülmeyeceğinin kararını yapay zekaya bırakmak yerine insan yargısına emanet etmemiz gerektiğini belirtiyorlar. bunun sağlanması için de bazı tür otonom silahların tamamen yasaklanması gerektiğini ve kalanların kullanımının da katı bir şekilde düzenlenmesi gerektiğini belirtiyorlar.
eye in the sky filminde birinin ölümüne karar verip vermemenin bir insan için ne kadar zor olduğu konusu işleniyor. bu kararı yapay zekaya bırakmak faydadan çok zarar getirebilir zira yapay zekaya insani duygular yüklemek mümkün değildir.
george mason university'den zachary kallenborn, "otonom drone sürülerinin otonom silahların en riskli türlerinden biri olduğunu ve otonom nükleer silahların kullanımına sebep verebileceğini" söylüyor.
otonom silahların kontrolünü kaybetme ihtimali ile nasıl başa çıkabileceğimizi öğrenmek ancak kullanımlarına ilişkin yasak ve kısıtlamalar aracılığı ile kullanım hızını yavaşlatarak gerçekleşebilir.
insanlık, kimyasal ve nükleer silahlar gibi kitle imha silahlarıyla nasıl başa çıkacağını, icatlarından yüz yıldan fazla bir süre geçtiği halde çözebilmiş değildir. bu tür silahların kullanımının yasaklanması erişimi zorlaştırmış ve yayılmalarını oldukça yavaşlatmıştır. benzer bir uygulama otonom silahlar için de yapılabilir.
kaynak: popular mechanics