以色列負責使用人工智能系統確定加沙空襲目標,從而屠殺多名平民。據以色列《+972 Magazine and Local Call》最近的調查顯示,以色列軍方據稱利用一個名爲“Lavender”的人工智能數據庫創建了一份包含 37,000 個可能目標的名單,這些目標顯然與哈馬斯有關。

自 10 月 7 日以來,已有超過 33,000 名巴勒斯坦人在加沙死亡,六名不願透露姓名的以色列情報人士在接受 +972 採訪時聲稱,以色列軍事指揮官利用目標名單批准空襲,導致大量平民傷亡。

戰爭和人工智慧軍事系統的破壞

人工智慧 (AI) 驅動的軍事系統,例如以色列的 Lavender 軟體,給加薩等衝突地區造成了更多破壞。薰衣草因其神奇的發現哈馬斯個人的能力而聞名,它已成為一種雙刃武器,可以橫掃平民社區並摧毀沿途的生命。所聲稱的 90% 準確率掩蓋了可怕的現實,即如果不小心使用該技術,可能會殺死陷入交火的無辜旁觀者。

一位消息人士告訴 972mag,

“我們被要求尋找半層的高層建築,這些建築可能屬於哈馬斯,”

來源:+972mag

眾所周知,人工智慧的運作取決於多種因素,而這些參數的準確性取決於它們的微調。另一位消息人士稱,改變數據參數,電腦開始向我們展示各種警察和民防官員,對他們使用炸彈是不合適的。

另一個可疑的標準是手機是否定期更換;大多數加薩人每天都面臨戰爭造成的社會混亂。任何在未收到付款的情況下協助哈馬斯或曾經是哈馬斯成員的個人同樣會被演算法標記為可疑。

正如 971mag 消息人士所說,

“這些特徵中的每一個都是不準確的”

來源:+972mag

戰場上自動化的倫理難題

當戰區的硝煙消散時,人工智慧驅動的戰爭的深刻倫理問題變得越來越緊迫。 「人在循環中」的想法曾經被譽為對無節制自動化的威懾,如今卻被視為將演算法判斷與其實際意義分開的一條細線。以色列指揮官的證詞讓我們深入了解那些負責監督現代戰爭複雜性的人的想法,他們正在辯論人工智慧造成的暴力的道德後果。

自從人工智慧驅動的衝突可能造成多麼災難性的後果變得顯而易見以來,人們一直擔心一個問題:人類真的能讓機器在生死攸關的問題上佔上風嗎?隨著各國努力應對自動化的道德後果和人工智慧暴力的真正危險,道德問責和負責任的管理比以往任何時候都更重要。世界正處於可怕的新戰爭時期的邊緣,歷史教訓清楚地說明了無節制的技術發展的危險。