以色列负责使用人工智能系统确定加沙空袭目标,从而屠杀多名平民。据以色列《+972 Magazine and Local Call》最近的调查显示,以色列军方据称利用一个名为“Lavender”的人工智能数据库创建了一份包含 37,000 个可能目标的名单,这些目标显然与哈马斯有关。

自 10 月 7 日以来,已有超过 33,000 名巴勒斯坦人在加沙死亡,六名不愿透露姓名的以色列情报人士在接受 +972 采访时声称,以色列军事指挥官利用目标名单批准空袭,导致大量平民伤亡。

战争和人工智慧军事系统的破坏

人工智慧 (AI) 驱动的军事系统,例如以色列的 Lavender 软体,给加萨等冲突地区造成了更多破坏。薰衣草因其神奇的发现哈马斯个人的能力而闻名,它已成为一种双刃武器,可以横扫平民社区并摧毁沿途的生命。所声称的 90% 准确率掩盖了可怕的现实,即如果不小心使用该技术,可能会杀死陷入交火的无辜旁观者。

一位消息人士告诉 972mag,

“我们被要求寻找半层的高层建筑,这些建筑可能属于哈马斯,”

来源:+972mag

众所周知,人工智慧的运作取决于多种因素,而这些参数的准确性取决于它们的微调。另一位消息人士称,改变数据参数,电脑开始向我们展示各种警察和民防官员,对他们使用炸弹是不合适的。

另一个可疑的标准是手机是否定期更换;大多数加萨人每天都面临战争造成的社会混乱。任何在未收到付款的情况下协助哈马斯或曾经是哈马斯成员的个人同样会被演算法标记为可疑。

正如 971mag 消息人士所说,

“这些特征中的每一个都是不准确的”

来源:+972mag

战场上自动化的伦理难题

当战区的硝烟消散时,人工智慧驱动的战争的深刻伦理问题变得越来越紧迫。 「人在循环中」的想法曾经被誉为对无节制自动化的威慑,如今却被视为将演算法判断与其实际意义分开的一条细线。以色列指挥官的证词让我们深入了解那些负责监督现代战争复杂性的人的想法,他们正在辩论人工智慧造成的暴力的道德后果。

自从人工智慧驱动的冲突可能造成多么灾难性的后果变得显而易见以来,人们一直担心一个问题:人类真的能让机器在生死攸关的问题上占上风吗?随著各国努力应对自动化的道德后果和人工智慧暴力的真正危险,道德问责和负责任的管理比以往任何时候都更重要。世界正处于可怕的新战争时期的边缘,历史教训清楚地说明了无节制的技术发展的危险。