イスラエルは、人工知能システムを使ってガザ地区の空爆の標的を特定し、民間人数名の虐殺を可能にしたとして告発されている。イスラエルを拠点とする+972 MagazineとLocal Callによる最近の調査によると、イスラエル軍は、明らかにハマスと関係のある標的候補37,000人のリストを作成するために、ラベンダーと呼ばれるAI搭載データベースを利用したとされている。

10月7日以来、ガザでは3万3000人以上のパレスチナ人が死亡しており、+972と話をした身元不明のイスラエル情報筋6人は、イスラエル軍司令官が標的リストを利用して空爆を承認し、非常に多くの民間人の死傷者を出したと主張した。

戦争とAI軍事システムの破壊

イスラエルのラベンダー ソフトウェアなどの人工知能 (AI) 駆動型軍事システムは、ガザなどの紛争地域でさらなる破壊をもたらしている。ハマス関係者を検知する驚異的な能力で知られるラベンダーは、その進路上にある民間コミュニティを切り裂き、人々の命を奪う両刃の武器となっている。90% という精度率の発表は、この技術が不注意に使用された場合に、銃撃戦に巻き込まれた罪のない傍観者を殺害する可能性があるという恐ろしい現実を隠している。

ある情報筋は972magに次のように語った。

「私たちは、ハマスに帰属する可能性のある半階建ての高層ビルを探すよう求められています」

出典: +972mag

よく知られているように、人工知能はさまざまな要素に基づいて動作し、これらのパラメータの精度はそれらの微調整に依存します。データパラメータを変更すると、コンピューターは、爆弾を使用するのが適切ではないさまざまな警察および民間防衛関係者を提示し始めると、別の情報筋は述べています。

もう一つの疑わしい基準は、携帯電話が定期的に交換されているかどうかだった。ガザの住民のほとんどは、戦争による社会的混乱に日々対処していた。報酬を受け取らずにハマスを支援した人物や、かつてハマスのメンバーだった人物も、同様にアルゴリズムによって疑わしいとマークされた。

971magの情報源によると、

「これらの特徴はどれも不正確です」

出典: +972mag

戦場における自動化の倫理的パズル

戦場の煙が消えるにつれ、AI 主導の戦争に関する深い倫理的問題はますます切迫したものになりつつある。かつては無制限の自動化に対する抑止力として歓迎された「人間が関与する」という考えは、今日ではアルゴリズムの判断とその実際的な影響を分ける細い線とみなされている。現代の戦争の複雑さを監視する任務を負っている人々の考えを垣間見るには、人工知能によって可能になった暴力の道徳的帰結について議論しているイスラエルの司令官の証言が役立つ。

AI主導の紛争がいかに悲惨なものになるかが明らかになって以来、人々の心には1つの懸念が浮かび上がっている。それは、人間は本当に生死に関わる問題で機械に優位性を与えることができるのか、ということだ。各国が自動化の道徳的帰結とAIによる暴力の本当の危険性に取り組む中、道徳的説明責任と責任ある管理はこれまで以上に重要になっている。抑制されない技術成長の危険性は、恐ろしい新たな戦争の時代を迎えようとしている世界における歴史的教訓によってはっきりと示されている。