Австрійський уряд організував дводенну конференцію на тему автономних систем зброї, на якій зібралися експерти з військових технологій і делегати з 143 країн, щоб обговорити вплив цієї зброї та нагальну необхідність її регулювання.

Автономна зброя має тенденцію до дегуманізації

Під час конференції експерти детально розповіли про моральні, правові, гуманітарні та етичні виклики, пов’язані зі зброєю на основі штучного інтелекту, а також про найважливіший аспект її впливу на гідність людини. Експерти стверджують, що використання зброї штучного інтелекту дегуманізує як ціль, так і оператора.

Наголошуючи на необхідності регулювання цього боку військових операцій, міністр закордонних справ Австрії Александер Шалленберг, який приймає, сказав:

«Ми не можемо пропустити цей момент, не вживаючи заходів. Зараз настав час узгодити міжнародні правила та норми для забезпечення людського контролю».

З огляду на те, що переговори про використання цієї зброї на глобальному рівні майже зайшли в глухий кут, експерти також обговорили питання про те, чи можемо ми мати належний контроль над використанням автономної зброї через те, що ця зброя має дефекти незрілої технології. це має свої упередження та той факт, що він прискорює вогневу міць за межі людського сприйняття. Як сказав Шалленберг,

«Принаймні дозвольте нам переконатися, що найглибше та далекосяжне рішення, хто живе, а хто помре, залишається в руках людей, а не машин».

Джерело: Reuters.

З розгортанням автоматизованих систем насильство зростатиме

Дослідник з Центру військових досліджень у Копенгагені Ніл Ренік підкреслив свої зусилля, пов’язані з етичними проблемами автономної зброї, і сказав, що найбільш гострою проблемою цієї зброї є її здатність посилювати потенціал насильства, яке вже є, як повідомлялося. Себастьян Кловіг Скелтон з Computer Weekly. Ніл сказав,

«Автономна зброя та систематичні вбивства, які вона дозволить і прискорить, можуть чинити тиск на людську гідність двома різними способами, по-перше, стимулюючи моральне знецінення об’єкта».

Джерело: Себастьян Кловіг Скелтон.

Жоден із доповідачів на конференції не підтримав ідею, що автономна зброя повинна мати повноваження вибирати цілі виключно самостійно. Виконавчий президент Міжнародного центру штучного інтелекту в Марокко Амаль Ель-Фаллах Сегручні підкреслив, що віртуальність і швидкість є подвійними проблемами.

Вона сказала, що результати розгортання автономної зброї не спостерігаються, ніби оператор присутній у полі, а фізична відстань між оператором зброї та театром бойових дій у поєднанні зі швидкістю, з якою приймаються рішення, нав’язує недостатня поінформованість операторів.

Він також зазначив, що широке націлювання через надзвичайну систематизацію людей у ​​цих системах також збільшиться, додавши, що деперсоналізація призведе до розмивання основних прав людини та гідності осіб, на які спрямовані дії. Історія систематичного вбивства вже підтверджує його наслідки.