Останнім часом заголовки зосереджуються на прогресі штучного інтелекту. Але штучний інтелект існує десятиліттями, і він продовжуватиме відігравати важливу роль у веденні війни в майбутньому для цілого ряду військових і оборонних застосувань.

Це не тільки військові; можливо, ви читаєте цей текст на пристрої, який вже значною мірою покладається на штучний інтелект; Таким чином, ви, напевно, вже використовували штучний інтелект у певній якості ще до недавнього шуму.

Штучний інтелект, швидше за все, використовувався в будь-якій ситуації, коли ви платили за будь-що в Інтернеті, наприклад, за їжу чи розваги, використовували своє обличчя чи відбиток пальця, щоб розблокувати телефон, користувалися соціальними мережами або планували подорожі через телефонну програму.

Ми різними способами звикли до штучного інтелекту, впроваджуючи його — часто не усвідомлюючи — у наше повсякденне життя.

Військовий ШІ існує з часів Другої світової війни

Хоча зброя могла приймати деякі рішення після Другої світової війни, штучний інтелект тепер дозволяє їй приймати набагато більше рішень і з часом зробить їх звичними. 

Що, якби на когось напали, а його особу було визначено таким програмним забезпеченням для розпізнавання обличчя? Замість визначення найкращого ресторану, де можна поїсти, що, як подібне програмне забезпечення керує літаками завдати авіаудару по цілі? 

Читайте також: чи передбачає впровадження військових систем штучного інтелекту зловісний поворот у війні?

Поки що це виглядає як справді велика проблема. Питання полягає в тому, чи можуть системи штучного інтелекту справді самостійно приймати рішення про життя чи смерть? Їхня точність не є ідеальною та змінюється залежно від ситуації, і ми знаємо, що вони не завжди правильні.

У реальних зонах конфлікту штучний інтелект вже вибирає, на кого націлитися, як-от Газа чи Україна. За даними дослідження, опублікованого в ізраїльському інформаційному виданні +972, Ізраїль використовував систему штучного інтелекту (ШІ) під назвою Lavender, яка має мінімальні можливості для прийняття рішень людиною, для вибору можливих цілей, що призвело до значної кількості жертв серед цивільного населення. Журнал.

Машини можуть робити це холодно

Нещодавно в Австрії була проведена конференція, на якій розглядалися положення про зброю штучного інтелекту, щоб усунути руйнівні наслідки, які вона може мати. ШІ вже воює та націлюється на людей та їхні поселення. Про це заявив міністр закордонних справ Австрії Александр Шалленберг.

«Ми не можемо пропустити цей момент, не вживаючи заходів. Зараз настав час узгодити міжнародні правила та норми для забезпечення людського контролю».

Джерело: Reuters.

Технології, які багато військових розгортають у зонах бойових дій, ще далекі від зрілості та ще не використовуються, щоб вирішити, на кого націлюватися. Технологія, яку ми називаємо інтелектуальною, ще не настільки дієва, як мозок кота; навіть експерти кажуть, що якщо ми досягнемо рівня інтелекту миші в найближчі роки, це буде великим досягненням. 

Але рівень залежності від нього настільки високий, що він брутально розгортається таким чином, що дегуманізує як ціль, так і того, хто має вогневу міць. Це викликає серйозні питання про моральні, гуманітарні та етичні проблеми. 

Як люди, ми маємо невдоволення, але щоб запобігти скорботному солдату, військові тепер можуть використовувати цю нову зброю, оскільки журнал +972 згадує секретне джерело в розвідці, яке сказало:

«Машина зробила це холодно. І від цього було легше».

Джерело: Журнал +972.

Чи дійсно важливо, щоб люди брали участь у процесі відбору? Коли інший користувач Lavender запитав, він сказав, що на той момент він присвятить 20 секунд кожній цілі та завершить десятки з них щодня. Крім того, що він був офіційною печаткою схвалення, він не мав додаткової цінності як людина. Це дуже заощадило час.

Легко зрозуміти, яку силу прийняття рішень ми, люди, охоче віддаємо машинам.

До міжнародних угод ще далеко

Сполучені Штати ініціювали регулятивні зусилля шляхом реалізації Політичної декларації про відповідальне використання штучного інтелекту та автономії у військових цілях. Проголошення також включає Австралію. Однак до міжнародної угоди ще дуже далеко.

У декларації зазначається, що забезпечення гарантій є важливим, оскільки в ній зазначено, що,

«Держави повинні запровадити відповідні запобіжні заходи для пом’якшення ризиків збоїв у військових можливостях штучного інтелекту, таких як здатність виявляти й уникати небажаних наслідків і здатність реагувати, наприклад, шляхом відключення або дезактивації розгорнутих систем, коли такі системи демонструють ненавмисну ​​поведінку. »

Джерело: Держдепартамент США.

У документі також підкреслюється, що використання штучного інтелекту в армії «може і повинно бути» етичним, а також зміцнювати міжнародну безпеку. Але реалії на землі показують зовсім іншу картину, як обговорювалося вище.

Пошук і місцезнаходження ворожого військового персоналу є одним із застосувань таких систем; з розвитком інновацій у підривних роботах ми не маємо уявлення про інші складні військові види використання. 

Читайте також: Касперський заперечує звинувачення в допомозі російським військовим

Дебати про те, щоб виключити штучний інтелект із військових дій, здається, на даний момент не є варіантом, але законодавці в усьому світі та уряди, які беруть участь у конфліктах, повинні дотримуватися недостатніх можливостей штучного інтелекту та потенційної шкоди, яку він може завдати. ми люди.

Наразі політика не відповідає темпам інновацій, і це потрібно певною мірою, якщо не повністю, вирішити, оскільки ми не можемо просто сидіти і говорити: «Вау!» ШІ здійснив ще 1000 вбивств. Що представить ШІ? Ми ще не знаємо, але те, що повинні робити політики, — питання не лише для геніїв.

Репортаж Cryptopolitan Аміра Шейха.