Israel dituduh mengidentifikasi sasaran serangan udara di Gaza menggunakan sistem kecerdasan buatan, sehingga memungkinkan terjadinya pembantaian beberapa warga sipil. Militer Israel diduga menggunakan database bertenaga AI yang disebut Lavender untuk membuat daftar 37.000 kemungkinan target yang memiliki hubungan jelas dengan Hamas, menurut penyelidikan baru-baru ini oleh Majalah +972 dan Panggilan Lokal yang berbasis di Israel.

Lebih dari 33.000 warga Palestina telah tewas di Gaza sejak 7 Oktober, dan enam sumber intelijen Israel yang tidak disebutkan namanya yang berbicara dengan +972 mengklaim bahwa komandan militer Israel menggunakan daftar target tersebut untuk menyetujui serangan udara yang mengakibatkan korban sipil yang sangat tinggi.

Kerusakan akibat peperangan dan sistem militer AI

Sistem militer yang digerakkan oleh kecerdasan buatan (AI), seperti perangkat lunak Lavender Israel, telah menyebabkan lebih banyak kehancuran di tempat-tempat konflik seperti Gaza. Terkenal karena kemampuannya yang luar biasa dalam mendeteksi pribadi Hamas, lavender telah berubah menjadi senjata bermata dua yang menyerang komunitas sipil dan menghancurkan kehidupan yang dilaluinya. Tingkat akurasi yang dinyatakan sebesar 90% menyembunyikan kenyataan buruk tentang bagaimana teknologi ini, jika digunakan secara sembarangan, dapat membunuh orang-orang tidak bersalah yang terjebak dalam baku tembak.

Sebuah sumber mengatakan kepada 972mag, bahwa,

“Kami diminta mencari gedung-gedung tinggi setengah lantai yang bisa dikaitkan dengan Hamas,”

Sumber: +972mag

Seperti diketahui, kecerdasan buatan beroperasi pada berbagai faktor, dan keakuratan parameter ini bergantung pada penyesuaiannya. Ubah parameter data, dan komputer mulai menampilkan kepada kita berbagai pejabat polisi dan pertahanan sipil, yang tidak pantas menggunakan bom, kata sumber lain.

Kriteria lain yang meragukan adalah apakah ponsel diganti secara teratur atau tidak; sebagian besar warga Gaza menghadapi kekacauan sosial akibat perang setiap hari. Setiap individu yang membantu Hamas tanpa menerima pembayaran atau yang merupakan anggota sebelumnya juga ditandai sebagai mencurigakan oleh algoritma tersebut.

Seperti yang dikatakan sumber 971mag,

“Masing-masing fitur ini tidak akurat”

Sumber: +972mag

Teka-teki etika otomatisasi di medan perang

Masalah etika yang mendalam terkait peperangan yang digerakkan oleh AI menjadi semakin mendesak ketika asap dari zona pertempuran menghilang. Dulunya dipuji sebagai penghalang terhadap otomatisasi yang tak terkendali, gagasan “manusia dalam lingkaran” kini dipandang sebagai garis tipis yang memisahkan penilaian algoritmik dari implikasi praktisnya. Pandangan sekilas tentang pemikiran orang-orang yang bertugas mengawasi kompleksitas peperangan modern dapat dilihat dari kesaksian para komandan Israel yang memperdebatkan konsekuensi moral dari kekerasan yang dimungkinkan oleh kecerdasan buatan.

Karena sudah jelas betapa dahsyatnya konflik yang disebabkan oleh AI, ada satu kekhawatiran yang muncul di benak masyarakat: mampukah manusia benar-benar mampu memberikan keunggulan pada mesin dalam urusan hidup dan mati? Akuntabilitas moral dan pengelolaan yang bertanggung jawab menjadi semakin penting ketika negara-negara bergulat dengan konsekuensi moral dari otomatisasi dan bahaya nyata dari kekerasan yang disebabkan oleh AI. Bahaya pertumbuhan teknologi yang tak terkendali diilustrasikan dengan jelas oleh pelajaran sejarah di dunia yang berada di ambang periode peperangan baru yang mengerikan.