İsrail, yapay zeka sistemi kullanarak Gazze'deki hava saldırıları için hedefleri belirlemekle ve böylece çok sayıda sivilin katledilmesini sağlamakla suçlanıyor. İsrail merkezli +972 Magazine ve Local Call tarafından yakın zamanda yapılan bir araştırmaya göre, İsrail ordusunun, Hamas'la açık bağları olan 37.000 olası hedefin bir listesini oluşturmak için Lavender adlı yapay zeka destekli bir veri tabanını kullandığı iddia ediliyor.

7 Ekim'den bu yana Gazze'de 33.000'den fazla Filistinli öldü ve +972 ile konuşan kimliği belirsiz altı İsrail istihbarat kaynağı, İsrail askeri komutanlarının olağanüstü yüksek sivil kayıplarına yol açan hava saldırılarını onaylamak için hedef listesini kullandığını iddia etti.

Savaşın tahribatı ve yapay zeka askeri sistemleri

İsrail'in Lavender yazılımı gibi yapay zeka (AI) destekli askeri sistemler, Gazze gibi çatışma bölgelerinde daha fazla yıkıma yol açtı. Hamas'ın kişisel bilgilerini tespit etme konusundaki esrarengiz kapasitesiyle tanınan lavanta, sivil toplulukları kesen ve yoluna çıkan hayatları paramparça eden iki ucu keskin bir silaha dönüştü. Belirtilen %90'lık doğruluk oranı, bu teknolojinin dikkatsizce kullanıldığında çapraz ateşte kalan masum insanları nasıl öldürebileceğine dair korkunç gerçeği gizlemektedir.

Bir kaynak 972mag'e şunları söyledi:

"Bizden yarım katı Hamas'a atfedilebilecek yüksek binalar aramamız isteniyor"

Kaynak: +972mag

Bilindiği üzere yapay zeka birçok faktöre göre çalışmaktadır ve bu parametrelerin doğruluğu, bunların ince ayarına bağlıdır. Başka bir kaynak, veri parametrelerini değiştirdiğinizde bilgisayarın bize karşı bomba kullanmanın uygun olmayacağı çeşitli polis ve sivil savunma görevlilerini göstermeye başladığını söyledi.

Bir diğer şüpheli kriter ise cep telefonlarının düzenli olarak değiştirilip değiştirilmediğiydi; Gazzelilerin çoğu savaşın toplumsal kaosuyla günlük olarak uğraşıyordu. Ödeme almadan Hamas'a yardım eden veya eski üye olan herhangi bir kişi de aynı şekilde algoritma tarafından şüpheli olarak işaretlendi.

971mag kaynağının söylediği gibi,

“Bu özelliklerin her biri hatalı”

Kaynak: +972mag

Savaş alanındaki otomasyonun etik bilmecesi

Yapay zeka güdümlü savaşla ilgili derin etik sorunlar, savaş bölgelerinden çıkan duman dağıldığında giderek daha acil hale geliyor. Bir zamanlar dizginsiz otomasyona karşı caydırıcı olarak selamlanan "döngüdeki insanlar" fikri, bugün algoritmik kararları pratik sonuçlarından ayıran ince bir çizgi olarak görülüyor. Yapay zekanın mümkün kıldığı şiddetin ahlaki sonuçlarını tartışan İsrailli komutanların ifadeleri, modern savaşın karmaşıklıklarını denetlemekle görevli olanların düşüncelerine dair anlayışlı bir bakış sunuyor.

Yapay zeka kaynaklı çatışmanın ne kadar feci olabileceği ortaya çıktığından beri insanların aklında tek bir endişe var: İnsanlar gerçekten de ölüm kalım meselelerinde makinelere üstünlük sağlamaya gücü yetebilir mi? Uluslar otomasyonun ahlaki sonuçlarıyla ve yapay zeka destekli şiddetin gerçek tehlikesiyle boğuşurken, ahlaki sorumluluk ve sorumlu yönetim her zamankinden daha önemli hale geldi. Dizginsiz teknolojik büyümenin tehlikeleri, yeni ve korkunç bir savaş döneminin eşiğinde olan bir dünyada alınan tarihsel derslerle çarpıcı bir şekilde ortaya çıkıyor.