殺手機器人已經出現在戰場上,並證明自己是相當具有破壞性的武器。我們應該擔心——事實上非常擔心。由於它們已經在加沙和烏克蘭的戰爭中證明了其致命潛力,如果處理不當,後果可能是毀滅性的。4 月 3 日,以色列出版物 +972 雜誌發表了一篇關於以色列使用人工智能識別加沙目標的報道。

該人工智能系統名爲 Lavender,據說它整理了哈馬斯嫌疑人員的殺戮名單,包括低級別人員。我們不知道這些名單有多準確,但最令人擔憂的事實是,即使武裝分子在家中,周圍有家人和孩子,還有許多平民,它也被用來瞄準他們。下圖顯示了截至 4 月 15 日的傷亡人數。

資料來源:Statista。算法正在告訴目標對象

從以色列入侵加沙後大量平民死亡和大規模基礎設施破壞可以看出,該報告引起了人道主義組織、政府官員以及全球和美國每一位理智人士的嚴重擔憂。聯合國祕書長安東尼奧·古特雷斯表示“深感不安”,白宮發言人約翰·柯比表示“美國正在密切關注該報告”。

古特雷斯對傷亡表示了更多的關心,並表示,

“影響整個家庭的生死決定不應該被委託給冷冰冰的算法。”

來源:Worldpoliticsreview。

該報告是在以色列襲擊並殺害七名西方援助人員(其中一些是前英國軍人)事件之後發表的。這當然激起了英國各地法官和律師的強烈抗議,他們要求英國停止向以色列出售武器,因爲以色列犯下了戰爭罪行並嚴重違反國際法。

思考殺手機器人的另一個維度

半島電視臺根據人道協調廳的統計數據,展示了去年 11 月加沙的場景。來源:半島電視臺。

制止殺人機器人運動組織表達了他們的擔憂,但他們表示,這並不是他們自 2012 年以來一直反對的,因爲根據他們的說法,這是一個數據處理系統,最終開火的決定權仍在人類手中,但他們的一份聲明提供了另一個思考的維度。該聲明是在新聞發佈後發表的,它說,

“在攻擊推薦目標的決策中缺乏有意義的人爲控制和參與。”

來源:Worldpoliticsreview。

這份聲明中使用了“缺乏有意義的人類控制”一詞,這給本來就飽受譴責的人工智能和殺手機器人又增添了一層複雜性,也爲活動人士提供了新的關注點。

人們通常認爲人工智能有朝一日可能會統治地球,造成災難性的破壞,甚至導致人類滅絕。但更令人擔憂的事實是,使用人工智能的部隊在瞄準目標時會更加謹慎,這將使他們更不負責任,從而導致他們在戰爭中做出不道德的決定,就像我們在加沙已經看到的那樣。所以歸根結底,這不是機器人對人類做出決定的問題,而是人類在如此敏感的生死攸關的情況下,沒有充分利用自己的認知能力做出機器人決定的問題。正如報道中提到的一位消息人士所說,

“機器冷酷地完成了這項工作。”

來源:+972mag。

還有另一個角度,這可能會破壞程序員與人工智能系統有效溝通的能力,最終導致戰爭罪。

原始新聞報道可以在此處看到。