オーストリア政府が主催した自律型兵器システムに関する2日間の会議では、軍事技術の専門家や143か国の代表者が集まり、これらの兵器の影響や規制の緊急性について議論した。

自律型兵器は非人間化の傾向がある

会議中、専門家らは、人工知能を搭載した兵器によって生じた道徳的、法的、人道的、倫理的課題と、それが人間の尊厳に与える影響という最も重要な側面について詳しく話した。専門家らは、AI兵器の使用は標的と使用者の両方を非人間化すると主張している。

主催国オーストリアのアレクサンダー・シャレンベルグ外相は、軍事作戦のこの側面を規制する必要性を強調し、次のように述べた。

「私たちは行動を起こさずにこの瞬間を逃すわけにはいかない。今こそ、人間による制御を確保するための国際的なルールと規範に合意すべき時だ。」

これらの兵器の使用に関する協議が世界レベルでほぼ行き詰まっているという背景から、専門家らは、これらの兵器が独自のバイアスを持つ未熟な技術に欠陥があり、人間の認識を超えて火力を加速させるという事実から、自律型兵器の使用を適切に制御できるかどうかという問題も議論した。シャレンベルグ氏は次のように述べた。

「少なくとも、誰が生き、誰が死ぬかという最も重大かつ重大な決定が、機械ではなく人間の手に委ねられるよう、確実にしていきましょう。」

出典:ロイター。

自動化システムの導入により暴力が増加する

コペンハーゲン軍事研究センターの研究員ニール・レニック氏は、自律型兵器の倫理的問題に関する自身の取り組みを強調し、これらの兵器の最も差し迫った課題は、すでに存在する暴力の能力を増強する能力であると述べた。これは、コンピュータ・ウィークリーのセバスチャン・クロヴィグ・スケルトン氏の報告による。ニール氏は次のように述べた。

「自律型兵器とそれが可能にし加速させる組織的殺害は、まず標的の道徳的価値を下げる動機となることで、2つの異なる方法で人間の尊厳を圧迫する可能性がある。」

出典: セバスチャン・クロヴィグ・スケルトン。

会議の講演者の中で、自律型兵器が単独で標的を選択する権限を持つべきだという考えを支持した者はいなかった。モロッコの国際人工知能センターのアマル・エル・ファラー・セグルシュニ事務局長は、仮想性と速度が二重の問題であると強調した。

彼女は、自律型兵器の配備の結果は、操作者が現場にいるかのように観察できず、兵器操作者と戦場との間の物理的な距離と、決定が下されるスピードが相まって、操作者の認識不足を引き起こしていると述べた。

彼はまた、こうしたシステムの下で人間が極度に組織化されることで、広範囲に及ぶ標的化も増加するだろうと指摘し、非人格化によって標的となった個人の基本的人権と尊厳が侵害されることになるだろうと付け加えた。組織的殺害の歴史がすでにその影響を証明している。