Ізраїль звинувачують у визначенні цілей для авіаударів у Газі за допомогою системи штучного інтелекту, що дозволило вбити кількох мирних жителів. Згідно з недавнім розслідуванням ізраїльського журналу +972 Magazine and Local Call, ізраїльські військові нібито використовували базу даних Lavender на базі штучного інтелекту, щоб створити список із 37 000 можливих цілей, очевидно пов’язаних із ХАМАС.

Понад 33 000 палестинців загинули в Газі з 7 жовтня, і шість невідомих джерел ізраїльської розвідки, які спілкувалися з +972, стверджували, що ізраїльські військові командири використовували список цілей, щоб схвалити авіаудари, які призвели до надзвичайно великих жертв серед цивільного населення.

Руйнівні наслідки війни та військові системи ШІ

Військові системи, що керуються штучним інтелектом (ШІ), як-от ізраїльське програмне забезпечення Lavender, призвели до ще більших руйнувань у таких конфліктних місцях, як Газа. Лаванда, відома своєю дивовижною здатністю виявляти особи ХАМАС, стала двосічної зброєю, яка вражає цивільні громади та розбиває життя на своєму шляху. Заявлений показник точності в 90% приховує жахливу реальність того, як ця технологія при необережному використанні може вбити невинних перехожих, які потрапили під перехресний вогонь.

Про це 972mag повідомило джерело.

«Нас просять шукати багатоповерхівки з половиною поверху, які можна віднести до ХАМАС»,

Джерело: +972mag

Як відомо, штучний інтелект працює на основі багатьох факторів, і точність цих параметрів залежить від їх точного налаштування. Змініть параметри даних, і комп'ютер почне представляти нам різноманітних поліцейських і чиновників цивільної оборони, проти яких було б недоречно використовувати бомби, повідомило інше джерело.

Іншим сумнівним критерієм було те, чи регулярно міняли мобільні телефони; більшість жителів Гази щодня стикалися з соціальним хаосом війни. Алгоритм також позначав підозрілих будь-яку особу, яка надає допомогу ХАМАС без отримання оплати або була попереднім членом.

Як повідомило джерело 971mag,

«Кожна з цих функцій є неточною»

Джерело: +972mag

Етична головоломка автоматизації на полі бою

Глибоко етичні проблеми війни, керованої штучним інтелектом, стають дедалі актуальнішими, коли дим із зон бойових дій розсіюється. Колись проголошувану стримуючим фактором нестримної автоматизації, сьогодні ідея «людей в курсі» розглядається як тонка грань, що відокремлює алгоритмічні оцінки від їх практичних наслідків. Свідчення ізраїльських командирів, які обговорюють моральні наслідки насильства, яке стало можливим завдяки штучному інтелекту, пропонують проникливий погляд на мислення тих, кому доручено наглядати за складністю сучасної війни.

Оскільки стало очевидним, наскільки катастрофічним може бути конфлікт, спричинений штучним інтелектом, людей хвилює одне: чи можуть люди справді дозволити собі віддати перевагу машинам у питаннях життя та смерті? Моральна підзвітність і відповідальне керівництво як ніколи важливі, оскільки країни борються з моральними наслідками автоматизації та реальною небезпекою насильства за допомогою ШІ. Небезпеку нестримного технологічного зростання яскраво ілюструють історичні уроки у світі, який стоїть на порозі нового жахливого періоду війни.