Robot pembunuh sudah berada di medan perang dan membuktikan diri sebagai senjata yang cukup merusak. Kita seharusnya khawatir – bahkan sangat khawatir. Karena mereka telah membuktikan potensi mematikannya dalam perang di Gaza dan Ukraina, konsekuensinya bisa sangat buruk jika ditangani secara tidak hati-hati. Pada tanggal 3 April, majalah +972, sebuah publikasi Israel menerbitkan laporan tentang penggunaan AI oleh Israel untuk mengidentifikasi target di Gaza.

Sistem AI tersebut disebut Lavender dan dikatakan telah menyusun daftar pembunuhan orang-orang yang dicurigai sebagai personel Hamas, termasuk mereka yang bekerja di tingkat yang lebih rendah. Kami tidak tahu seberapa benar daftar tersebut, namun fakta yang paling memprihatinkan adalah bahwa daftar tersebut digunakan untuk menargetkan para militan meskipun mereka berada di rumah mereka bersama keluarga dan anak-anak serta banyak warga sipil di sekitarnya. Bagan di bawah menunjukkan jumlah korban dan cedera hingga 15 April.

Sumber: Statista. Algoritma memberi tahu siapa yang harus ditargetkan

Seperti yang terlihat dari tingginya angka kematian warga sipil dan kerusakan infrastruktur besar-besaran setelah invasi Israel ke Gaza, laporan ini menimbulkan kekhawatiran serius bagi kelompok kemanusiaan, pejabat pemerintah, dan setiap individu yang berakal sehat di seluruh dunia dan Amerika Serikat. Antonio Guterres, Sekretaris Jenderal Perserikatan Bangsa-Bangsa, mengatakan bahwa ia “sangat merasa terganggu” dan John Kirby, juru bicara Gedung Putih mengatakan bahwa “AS sedang meninjau laporan tersebut dengan cermat.”

Guterres menunjukkan kepedulian yang lebih terhadap korban jiwa dan berkata,

 “Tidak ada bagian dari keputusan hidup dan mati yang berdampak pada seluruh keluarga yang harus didelegasikan ke perhitungan algoritma.”

Sumber: Tinjauan Politik Dunia.

Laporan tersebut diterbitkan setelah insiden di mana Israel menargetkan dan membunuh tujuh pekerja bantuan Barat dan beberapa di antaranya adalah mantan anggota militer Inggris. Hal ini tentu saja menggugah para hakim dan pengacara di seluruh Inggris untuk menghentikan penjualan senjata ke Israel karena kejahatan perang dan pelanggaran serius terhadap hukum internasional.

Dimensi lain dari pemikiran tentang robot pembunuh

Aljazeera memvisualisasikan pemandangan di Gaza pada bulan November berdasarkan statistik OCHA. Sumber: Aljazeera.

Kampanye untuk Menghentikan Robot Pembunuh menunjukkan keprihatinannya namun mengatakan bahwa hal tersebut bukanlah hal yang mereka kampanyekan sejak tahun 2012, karena menurut mereka ini adalah sistem pemrosesan data, dan keputusan akhir untuk menembak tetap ada di tangan manusia, namun salah satu pernyataan mereka memberikan dimensi lain. untuk dipikirkan. Pernyataan itu muncul setelah berita tersebut dipublikasikan, katanya,

“Kurangnya kendali dan keterlibatan manusia dalam pengambilan keputusan untuk menyerang target yang direkomendasikan.”

Sumber: Tinjauan Politik Dunia.

Pernyataan ini menggunakan kata “kurangnya kendali manusia yang berarti,” yang menambah kompleksitas pada kecerdasan buatan dan robot pembunuh yang sudah dikutuk, dan juga memberikan kekhawatiran baru bagi para aktivis yang perlu diadvokasi.

Kecerdasan buatan biasanya digambarkan suatu hari nanti dapat mengambil alih planet ini dan menyebabkan kerusakan besar, bahkan kepunahan manusia. Namun fakta yang lebih memprihatinkan adalah bahwa pasukan yang menggunakan senjata ini akan kurang berhati-hati dalam melakukan penargetan, hal ini akan membuat mereka kurang akuntabel sehingga akan mengakibatkan mereka mengambil keputusan yang tidak etis dalam perang seperti yang telah kita lihat di Gaza. Jadi pada akhirnya, ini bukan tentang robot yang membuat keputusan melawan manusia, tetapi manusia membuat keputusan robotik tanpa menggunakan kemampuan kognitif mereka sepenuhnya dalam situasi hidup dan mati yang sensitif. Seperti yang disebutkan dalam laporan tersebut, seorang sumber mengatakan,

“Mesin itu melakukannya dengan dingin.”

Sumber: +972mag.

Ada juga sudut pandang lain, hal ini dapat merusak kemampuan pemrogram untuk berkomunikasi secara efektif dengan sistem AI yang akan berakhir pada kejahatan perang.

Berita aslinya bisa dilihat di sini.