Роботи-вбивці вже на полі бою і виявляють себе досить руйнівною зброєю. Ми повинні хвилюватися – насправді дуже хвилюватися. Оскільки вони довели свій смертоносний потенціал у війнах у Газі та Україні, наслідки можуть бути руйнівними, якщо з ними поводитися необережно. 3 квітня ізраїльське видання журналу +972 опублікувало звіт про використання Ізраїлем ШІ для виявлення цілей у Газі.
Система штучного інтелекту називається Lavender, і кажуть, що вона курувала списки вбивств підозрюваних співробітників ХАМАСу, включно з тими, хто працював нижчими рангами. Ми не маємо уявлення про те, наскільки правильними були ці списки, але найбільш тривожним фактом є те, що вони використовувалися для націлювання на бойовиків, навіть якщо вони перебували у своїх будинках зі своїми родинами, дітьми та багатьма мирними жителями. На діаграмі нижче показано кількість загиблих і постраждалих станом на 15 квітня.
Джерело: Statista. Алгоритми підказують, на кого націлюватися
Як видно з великої кількості загиблих серед цивільного населення та масштабного руйнування інфраструктури після вторгнення Ізраїлю в Газу, звіт викликав серйозне занепокоєння серед гуманітарних товариств, урядовців і всіх розсудливих людей у всьому світі та США. Генеральний секретар ООН Антоніо Гутерріш заявив, що він «глибоко стурбований», а речник Білого дому Джон Кірбі заявив, що «США уважно розглядають звіт».
Гутерріш проявив більше занепокоєння щодо жертв і сказав:
«Жодна частина рішень щодо життя та смерті, які впливають на цілі родини, не повинна бути делегована холодному розрахунку алгоритмів».
Джерело: Worldpoliticsreview.
Звіт було опубліковано після інциденту, під час якого Ізраїль вбив сімох західних гуманітарних працівників, деякі з яких були колишніми британськими військовими. Це, звісно, спонукало суддів та юристів по всій Британії припинити продаж зброї Ізраїлю через його військові злочини та серйозні порушення міжнародного права.
Інший вимір думок про роботів-вбивць
Aljazeera візуалізує сцени в Газі ще в листопаді на основі статистики OCHA. Джерело: Aljazeera.
Кампанія Campaign to Stop Killer Robots висловила свою стурбованість, але заявила, що це не те, проти чого вони боролися з 2012 року, оскільки, за їх словами, це система обробки даних, і остаточне рішення про вогонь залишається в руках людини, але одна з їхніх заяв надає інший вимір думати про. Заява надійшла після публікації новини, у ній йдеться:
«Відсутність значущого людського контролю та участі в ухваленні рішень щодо нападу на рекомендовані цілі».
Джерело: Worldpoliticsreview.
У цій заяві використовується слово «відсутність значущого людського контролю», що додає ще один рівень складності до вже засудженого штучного інтелекту та роботів-вбивць, а також дає учасникам кампанії нову проблему для захисту.
Штучний інтелект зазвичай зображують так, що він одного дня може заволодіти планетою та завдати катастрофічної шкоди, навіть вимирання людства. Але більш занепокоєний факт полягає в тому, що сили, які їх використовують, будуть менш обережними під час націлювання, це зробить їх менш відповідальними, що призведе до прийняття неетичних рішень у війнах, як ми вже бачили в Газі. Тож, зрештою, справа не в тому, що роботи приймають рішення проти людей, а в тому, що люди приймають роботизовані рішення, не використовуючи повною мірою власні когнітивні здібності в таких делікатних ситуаціях життя та смерті. Як повідомляє джерело, повідомляє:
«Машина зробила це холодно».
Джерело: +972mag.
Існує також інший кут цього, це може пошкодити здатність програмістів ефективно спілкуватися з системами ШІ, що закінчиться військовими злочинами.
Оригінал новини можна переглянути тут.