Роботы-убийцы уже на поле боя и зарекомендовали себя как весьма разрушительное оружие. Нам следует беспокоиться – на самом деле очень волноваться. Поскольку они доказали свой смертоносный потенциал в войнах в Газе и на Украине, последствия могут быть разрушительными, если с ними обращаться небрежно. 3 апреля журнал +972, израильское издание, опубликовал отчет об использовании Израилем искусственного интеллекта для выявления целей в секторе Газа.
Система искусственного интеллекта называется «Лаванда», и говорят, что она составляла списки убийств подозреваемых сотрудников ХАМАС, в том числе тех, кто работал на нижних чинах. Мы понятия не имеем, насколько точными были эти списки, но наиболее тревожным фактом является то, что они использовались для нападения на боевиков, даже если они находились в своих домах со своими семьями, детьми и множеством мирных жителей вокруг. На диаграмме ниже показано количество жертв и раненых по состоянию на 15 апреля.
Источник: Статистика. Алгоритмы говорят, на кого нацеливаться
Как видно из большого количества смертей среди гражданского населения и масштабных разрушений инфраструктуры после вторжения Израиля в сектор Газа, доклад вызвал серьезную обеспокоенность среди гуманитарных обществ, правительственных чиновников и каждого здравомыслящего человека во всем мире и в США. Антониу Гутерриш, генеральный секретарь Организации Объединенных Наций, заявил, что он «глубоко обеспокоен», а Джон Кирби, представитель Белого дома, заявил, что «США внимательно изучают отчет».
Гутерриш проявил большую обеспокоенность по поводу жертв и сказал:
«Никакая часть решений о жизни и смерти, которые влияют на целые семьи, не должна быть передана на холодный расчет алгоритмов».
Источник: Worldpoliticsreview.
Отчет был опубликован после инцидента, в ходе которого Израиль напал на семь западных сотрудников гуманитарных организаций и убил их, некоторые из них были бывшими британскими военными. Это, конечно, побудило судей и юристов по всей Великобритании прекратить продажу оружия Израилю из-за его военных преступлений и серьезных нарушений международного права.
Другое измерение размышлений о роботах-убийцах
«Аль-Джазира» визуализирует сцены в Газе еще в ноябре, основываясь на статистике УКГВ. Источник: Аль-Джазира.
Кампания по прекращению роботов-убийц выразила свою обеспокоенность, но заявила, что это не то, против чего они проводят кампанию с 2012 года, поскольку, по их мнению, это система обработки данных, и окончательное решение об открытии огня остается в руках человека, но одно из их заявлений дает другое измерение. думать о. Заявление прозвучало после публикации новости, говорится в сообщении.
«Отсутствие значимого человеческого контроля и участия в принятии решений об атаке рекомендуемых целей».
Источник: Worldpoliticsreview.
В этом заявлении используется слово «отсутствие значимого контроля со стороны человека», что добавляет еще один уровень сложности к уже осужденному искусственному интеллекту и роботам-убийцам, а также дает участникам кампании новую проблему, которую нужно отстаивать.
Искусственный интеллект обычно изображают так, что однажды он может захватить планету и нанести катастрофический вред, вплоть до исчезновения человечества. Но более тревожным фактом является то, что силы, использующие их, будут проявлять меньшую осторожность при нанесении ударов, это сделает их менее подотчетными, что приведет к принятию неэтичных решений в войнах, как мы уже видели в секторе Газа. Таким образом, в конце концов, речь идет не о роботах, принимающих решения против людей, а о людях, принимающих роботизированные решения без использования в полной мере своих собственных когнитивных способностей в таких деликатных ситуациях жизни и смерти. Как сообщается со ссылкой на источник,
«Машина сделала это хладнокровно».
Источник: +972маг.
Есть и другая сторона: это может подорвать способность программистов эффективно взаимодействовать с системами ИИ, что приведет к военным преступлениям.
Оригинальную новость можно посмотреть здесь.