Katil robotlar zaten savaş alanında ve oldukça yıkıcı silahlar olduklarını kanıtlıyorlar. Endişelenmemiz gerekiyor, hatta çok endişelenmemiz gerekiyor. Gazze ve Ukrayna'daki savaşlarda ölümcül potansiyellerini kanıtladıklarından, dikkatsizce ele alınırsa sonuçları yıkıcı olabilir. 3 Nisan'da İsrailli bir yayın olan +972 dergisi, İsrail'in Gazze'deki hedefleri belirlemek için yapay zeka kullanımına ilişkin bir rapor yayınladı.

Yapay zeka sistemine Lavender adı veriliyor ve alt rütbelerde çalışanlar da dahil olmak üzere şüpheli Hamas personelinin ölüm listelerini hazırladığı söyleniyor. Listelerin ne kadar doğru olduğu hakkında hiçbir fikrimiz yok ama en endişe verici gerçek, militanların evlerinde, aileleri, çocukları ve etrafta çok sayıda siville birlikte olmalarına rağmen hedef alınması için kullanılmış olması. Aşağıdaki grafik 15 Nisan'a kadar ölü ve yaralı sayısını gösteriyor.

Kaynak: Statista. Algoritmalar kimi hedef alacağını söylüyor

İsrail'in Gazze'yi işgalinin ardından çok sayıda sivil ölümü ve altyapının büyük çapta tahrip edilmesinden de anlaşılacağı üzere rapor, insani yardım dernekleri, hükümet yetkilileri, dünya çapında ve ABD'de aklı başında olan her bireyde ciddi endişelere yol açtı. Birleşmiş Milletler Genel Sekreteri Antonio Guterres "derinden sıkıntılı" olduğunu söylerken, Beyaz Saray sözcüsü John Kirby "ABD'nin raporu yakından incelediğini" söyledi.

Guterres, kayıplarla ilgili daha fazla endişe duyduğunu belirterek şunları söyledi:

“Tüm aileyi etkileyen ölüm kalım kararlarının hiçbir kısmı, algoritmaların soğuk hesaplamalarına devredilmemelidir.”

Kaynak: Worldpoliticsreview.

Rapor, İsrail'in yedi Batılı yardım görevlisini hedef alıp öldürdüğü ve bunların bir kısmının eski İngiliz askeri olduğu olaydan sonra yayınlandı. Bu durum elbette İngiltere'deki yargıçları ve avukatları, savaş suçları ve ciddi uluslararası hukuk ihlalleri nedeniyle İsrail'e silah satışını durdurmaya yöneltti.

Katil robotlar hakkında düşünmenin başka bir boyutu

Aljazeera, Kasım ayında OCHA istatistiklerine dayanarak Gazze'deki sahneleri görselleştiriyordu. Kaynak: El Cezire.

Katil Robotları Durdurma Kampanyası kaygılarını gösterdi ancak 2012'den bu yana karşı kampanya yürüttükleri şeyin bu olmadığını, onlara göre bunun bir veri işleme sistemi olduğunu ve ateş etme konusunda nihai kararın insan elinde kaldığını söyledi, ancak açıklamalarından biri başka bir boyut sağlıyor düşünmek için. Açıklama haberin yayınlanmasının ardından geldi.

"Önerilen hedeflere saldırı kararlarında anlamlı insan kontrolü ve katılımının olmaması."

Kaynak: Worldpoliticsreview.

Bu açıklamada, halihazırda kınanan yapay zeka ve katil robotlara başka bir karmaşıklık katmanı ekleyen ve aynı zamanda kampanyacılara savunacakları yeni bir endişe sağlayan "anlamlı insan kontrolünün eksikliği" kelimesi kullanılıyor.

Yapay zekanın genellikle bir gün gezegeni ele geçirebileceği ve felaketle sonuçlanabilecek zararlara, hatta insanların yok olmasına yol açabileceği şeklinde tasvir ediliyor. Ancak daha endişe verici bir gerçek şu ki, onları kullanan güçler hedef alırken daha az dikkatli olacak, bu onları daha az hesap verebilir hale getirecek ve bu da Gazze'de gördüğümüz gibi savaşlarda etik olmayan kararlar almalarına neden olacak. Yani sonuçta robotların insanlara karşı kararlar vermesi değil, insanların bu kadar hassas yaşam ve ölüm durumlarında kendi bilişsel yeteneklerini tam olarak kullanmadan robotik kararlar alması söz konusu. Raporda bir kaynağın söylediği gibi:

“Makine bunu soğukkanlılıkla yaptı.”

Kaynak: +972mag.

Bunun başka bir açısı daha var; bu, programcıların AI sistemleriyle etkili bir şekilde iletişim kurma yeteneğini bozabilir ve bu da savaş suçlarıyla sonuçlanabilir.

Haberin orjinaline buradan ulaşabilirsiniz.