奥地利政府主办了为期两天的自主武器系统会议,来自 143 个国家的军事技术专家和代表齐聚一堂,讨论这些武器的影响以及对其进行监管的迫切需要。

自主武器有非人性化的倾向

会议期间,专家们详细讨论了人工智能武器带来的道德、法律、人道主义和伦理挑战,以及它们对人类尊严的影响。专家认为,使用人工智能武器将使目标和操作者都失去人性。

东道主奥地利外交部长亚历山大·沙伦贝格强调,有必要规范军事行动的这一方面,他说,

“我们不能坐视这一刻过去而不采取行动。现在是就国际规则和规范达成一致以确保人类控制的时候了。”

在有关使用这些武器的谈判在全球范围内几乎陷入停滞的背景下,专家们还讨论了我们能否对自主武器的使用进行适当控制,因为这些武器存在缺陷,技术不成熟,有其自身的偏见,而且它的火力加速超出了人类的感知范围。正如沙伦伯格所说,

“至少让我们确保,最深刻、最深远的决定权,即谁生谁死,仍然掌握在人类手中,而不是机器手中。”

来源:路透社。

随着自动化系统的部署,暴力事件将会增加

哥本哈根军事研究中心的研究员 Neil Renic 强调了他对自主武器伦理问题的研究,并表示这些武器最紧迫的挑战是它们能够加剧已经存在的暴力能力,正如《计算机周刊》的 Sebastian Klovig Skelton 所报道的那样。Neil 说,

“自主武器以及它们所促成和加速的系统性杀戮可能会以两种不同的方式对人类尊严造成压力,首先是通过激励目标的道德贬低。”

来源:Sebastian Klovig Skelton。

会议上,没有一位发言者赞同自主武器应该有权自行选择目标的想法。摩洛哥国际人工智能中心执行主席 Amal El Fallah Seghrouchni 强调虚拟性和速度是双重问题。

她表示,自主武器的部署效果是不可观察的,就好像操作员在现场一样,而武器操作员与战区之间的物理距离,加上决策的速度,导致操作员缺乏意识。

他还指出,在这些系统下,人类被极端系统化,导致大规模杀戮的情况也会增加,非人化将导致被杀者的基本人权和尊严被侵蚀。系统杀戮的历史已经证明了其后果。