Израилю предъявлено обвинение в определении целей для авиаударов в секторе Газа с использованием системы искусственного интеллекта, что позволило совершить резню нескольких гражданских лиц. Согласно недавнему расследованию, проведенному израильскими журналами +972 Magazine и Local Call, израильские военные якобы использовали базу данных под названием Lavender на базе искусственного интеллекта, чтобы создать список из 37 000 возможных целей, явно связанных с ХАМАС.

С 7 октября в секторе Газа погибло более 33 000 палестинцев, а шесть неопознанных источников в израильской разведке, беседовавших с +972, заявили, что израильские военные командиры использовали список целей для одобрения авиаударов, которые привели к исключительно высоким жертвам среди гражданского населения.

Разрушительные последствия войны и военных систем искусственного интеллекта

Военные системы, управляемые искусственным интеллектом (ИИ), такие как израильское программное обеспечение Lavender, привели к еще большим разрушениям в таких конфликтных местах, как сектор Газа. Лаванда, известная своей сверхъестественной способностью обнаруживать личностей Хамаса, превратилась в обоюдоострое оружие, которое прорезает гражданские сообщества и разрушает жизни на своем пути. Заявленный уровень точности в 90% скрывает ужасную реальность того, как эта технология при неосторожном использовании может убить невинных прохожих, попавших под перекрестный огонь.

Об этом сообщил источник 972mag.

«Нас просят искать высотные здания в полэтажа, которые можно отнести к ХАМАСу»,

Источник: +972mag

Как известно, искусственный интеллект воздействует на множество факторов, и точность этих параметров зависит от их точной настройки. Измените параметры данных, и компьютер начнет представлять нам различных сотрудников полиции и гражданской обороны, против которых было бы нецелесообразно использовать бомбы, рассказал другой источник.

Еще одним сомнительным критерием было то, меняли ли сотовые телефоны регулярно; большинство жителей Газы ежедневно сталкиваются с социальным хаосом войны. Любой человек, который помогает Хамасу без получения оплаты или был предыдущим членом, также был помечен алгоритмом как подозрительный.

Как сообщил источник 971mag,

«Каждая из этих характеристик неточна»

Источник: +972mag

Этическая загадка автоматизации на поле боя

Глубоко этические проблемы, связанные с войной, управляемой искусственным интеллектом, становятся все более актуальными, когда дым от зон боевых действий рассеивается. Когда-то провозглашенная сдерживающим фактором для необузданной автоматизации, идея «людей в цикле» сегодня рассматривается как тонкая линия, отделяющая алгоритмические суждения от их практических последствий. Глубокое представление о мышлении тех, кому поручено наблюдать за сложностями современной войны, дают показания израильских командиров, которые обсуждают моральные последствия насилия, ставшего возможным благодаря искусственному интеллекту.

С тех пор, как стало очевидно, насколько катастрофическими могут быть конфликты, вызванные искусственным интеллектом, у людей возникло одно беспокойство: могут ли люди действительно позволить себе дать машинам преимущество в вопросах жизни и смерти? Моральная ответственность и ответственное управление становятся более важными, чем когда-либо, поскольку страны сталкиваются с моральными последствиями автоматизации и реальной опасностью насилия с помощью ИИ. Опасности безудержного технологического роста ярко иллюстрируются историческими уроками мира, стоящего на пороге нового ужасающего периода войны.