最近,头条新闻都聚焦于人工智能的进步。但人工智能已经存在了几十年,它将继续成为未来战争的重要组成部分,在一系列军事和国防应用中发挥重要作用。

不仅仅是军队;你可能正在一个已经严重依赖人工智能的设备上阅读这篇文章;因此,你可能在最近的喧嚣之前就已经在某种程度上利用了人工智能。

人工智能最有可能被用于任何场合,例如你在线支付食物或娱乐费用、使用你的脸或指纹解锁手机、参与社交媒体或通过手机应用程序安排旅行。

我们已经以各种方式习惯了人工智慧,并将其融入我们的日常生活(通常是在没有意识到的情况下)。

军事人工智慧自二战以来就已存在

尽管自二战以来武器已经能够做出一些决定,但人工智慧现在使它们能够做出更多的决定,并最终使它们变得司空见惯。

如果有人受到攻击并且透过这种脸部辨识软体确定其身份怎么办?如果类似的软体引导飞机对目标发动空袭,而不是确定最好的餐厅,该怎么办?

另请阅读:人工智慧军事系统的采用是否预示著战争的险恶转折?

到目前为止,这看起来确实是一个大问题。问题是,人工智慧系统真的可以自己做出生死攸关的决定吗?它们的准确性并不完美,并且会根据情况而变化,而且我们知道它们并不总是正确的。

在实际的冲突地区,人工智慧已经在选择目标族群,例如加萨和乌克兰。以色列新闻媒体+972发表的研究显示,据说以色列使用了一种名为「Lavender」的人工智慧(AI)系统来选择可能的目标,该系统对人类决策的适用性极低,导致大量平民伤亡。杂志。

机器可以冷酷地做事

最近,奥地利召开了一次会议,讨论人工智慧武器的监管问题,以解决它们可能造成的破坏性影响。人工智慧已经在与人类及其定居点作战并成为目标。奥地利外交部长亚历山大沙伦伯格表示,

「我们不能让这一刻过去而不采取行动。现在是就国际规则和规范达成一致以确保人类控制的时候了。

资料来源:路透社。

许多军队在战区部署的技术还远未成熟,尚未用于决定攻击对象。我们称之为智慧的技术还没有猫的大脑那么强大;甚至专家也表示,如果我们在未来几年达到老鼠的智力水平,那将是一项巨大的成就。

但对它的依赖程度如此之高,以致于它被残酷地部署,使目标和拥有火力的人都失去了人性。它提出了有关道德、人道主义和伦理问题的严重问题。

作为人类,我们有不满,但为了防止悲伤的士兵,军队现在可以使用这种新武器,正如 +972 杂志提到的一位情报秘密消息人士所说:

「机器冷酷地完成了任务。这让事情变得更容易。

资料来源:+972 杂志。

人们参与选择过程真的很重要吗?当另一位 Lavender 用户询问时,他表示,那时他会为每个目标投入 20 秒,每天完成数十个目标。除了作为一个官方的认可印章之外,他作为一个人没有任何额外的价值。这是相当节省时间的。

很容易理解我们人类愿意将多少决策权交给机器。

国际协议仍遥遥无期

美国透过实施《关于负责任地军事使用人工智慧和自主的政治宣言》启动了监管工作。该公告还包括澳洲。然而,距离达成国际协议还很遥远。

该宣言提到确保保障措施至关重要,因为它指出,

「各国应实施适当的保障措施,以减轻军事人工智慧能力失败的风险,例如检测和避免意外后果的能力以及做出反应的能力,例如,当此类系统表现出意外行为时,透过脱离或停用已部署的系统。

资料来源:美国国务院。

该文件也强调,人工智慧在军队中的使用「可以而且应该」符合道德规范,同时加强国际安全。但正如上面所讨论的,实际情况却完全不同。

寻找和定位敌方军事人员是此类系统的应用之一;随著爆破创新的不断进行,我们不知道还会出现什么其他复杂的军事用途。

另请阅读:卡巴斯基否认帮助俄罗斯军方的说法

目前,关于将人工智慧排除在战争之外的争论似乎不是一个选择,但世界各地的立法者和卷入冲突的政府必须承认人工智慧缺乏能力及其可能造成的潜在破坏我们人类。

目前,政策制定未能跟上创新的步伐,这一问题即使不是完全解决,也需要在一定程度上得到解决,因为我们不能只是坐著说,哇! AI 又杀了 1000 人。 AI会呈现什么?我们还不知道,但政策制定者该做什么不只是天才的问题。

阿米尔·谢赫 (Aamir Sheikh) 的《密码城》报道。