В последнее время заголовки новостей сосредоточены на достижениях в области искусственного интеллекта. Но искусственный интеллект существует уже несколько десятилетий и будет продолжать играть важную роль в ведении войны в будущем для целого ряда военных и оборонных приложений.

Это не только военные; возможно, вы читаете этот текст на устройстве, которое уже в значительной степени зависит от искусственного интеллекта; таким образом, вы, вероятно, уже использовали ИИ в той или иной мере еще до недавней шумихи.

ИИ, скорее всего, использовался в любой ситуации, когда вы платили за что-либо в Интернете, например, за еду или развлечения, использовали свое лицо или отпечаток пальца для разблокировки телефона, пользовались социальными сетями или планировали поездку с помощью приложения для телефона.

Мы по-разному привыкли к ИИ, включая его – часто даже не осознавая этого – в нашу повседневную жизнь.

Военный ИИ существует со времен Второй мировой войны

Хотя после Второй мировой войны оружие могло принимать некоторые решения, искусственный интеллект теперь позволяет ему принимать гораздо больше решений и в конечном итоге сделает их обычным явлением.

Что, если на кого-то нападут и его личность будет установлена ​​с помощью такого программного обеспечения для распознавания лиц? Вместо того, чтобы определять лучший ресторан, в котором можно поесть, что, если подобное программное обеспечение поможет самолетам нанести авиаудар по цели?

Читайте также: Предсказывает ли внедрение военных систем искусственного интеллекта зловещий поворот в войне?

На данный момент это выглядит как действительно большая проблема. Вопрос в том, могут ли системы искусственного интеллекта действительно принимать решения о жизни и смерти самостоятельно? Их точность не идеальна и варьируется в зависимости от ситуации, и мы знаем, что они не всегда верны.

В реальных зонах конфликта ИИ уже выбирает, на кого нацеливаться, например в секторе Газа и на Украине. Согласно исследованию, опубликованному в израильском новостном агентстве +972, Израиль использовал систему искусственного интеллекта (ИИ) под названием «Лаванда», которая имеет минимальную применимость к принятию решений человеком, для выбора возможных целей, что привело к значительному числу жертв среди гражданского населения. Журнал.

Машины могут делать это хладнокровно

Недавно Австрия провела конференцию по рассмотрению правил в отношении оружия искусственного интеллекта, чтобы устранить разрушительные последствия, которые оно может иметь. ИИ уже воюет и нацеливается на людей и их поселения. Министр иностранных дел Австрии Александр Шалленберг заявил:

«Мы не можем упустить этот момент, не приняв мер. Сейчас настало время договориться о международных правилах и нормах для обеспечения человеческого контроля».

Источник: Рейтер.

Технологии, которые многие военные развертывают в зонах боевых действий, все еще далеки от зрелости и еще не используются для принятия решения о том, на кого нападать. Технология, которую мы называем разумной, еще не так эффективна, как кошачий мозг; даже эксперты говорят, что если мы в ближайшие годы достигнем уровня интеллекта мыши, это будет большим достижением.

Но уровень зависимости от него настолько высок, что его жестоко применяют таким образом, что дегуманизирует как цель, так и того, кто обладает огневой мощью. Это поднимает серьезные вопросы морального, гуманитарного и этического характера.

У нас, людей, есть обиды, но чтобы не допустить скорбящего солдата, военные теперь могут использовать это новое оружие, поскольку журнал +972 упоминает секретный источник из разведки, который сказал:

«Машина сделала это хладнокровно. И это облегчило задачу».

Источник: Журнал +972.

Действительно ли важно, чтобы люди участвовали в процессе отбора? На вопрос другого пользователя Lavender он сказал, что в этот момент он будет посвящать каждой цели по 20 секунд и выполнять десятки из них каждый день. Помимо того, что он был официальным знаком одобрения, он не имел никакой дополнительной ценности как человек. Это очень экономило время.

Легко понять, сколько полномочий по принятию решений мы, люди, охотно отдаем машинам.

До международных соглашений еще далеко

Соединенные Штаты инициировали усилия по регулированию посредством реализации Политической декларации об ответственном военном использовании искусственного интеллекта и автономии. Прокламация также включает Австралию. Однако до международного соглашения еще очень далеко.

В декларации упоминается, что обеспечение гарантий имеет важное значение, поскольку в ней говорится, что:

«Государства должны реализовать соответствующие меры безопасности для снижения рисков сбоев в возможностях военного ИИ, такие как способность обнаруживать и избегать непредвиденных последствий и способность реагировать, например, путем отключения или деактивации развернутых систем, когда такие системы демонстрируют непреднамеренное поведение. »

Источник: Государственный департамент США.

В документе также подчеркивается, что использование ИИ в вооруженных силах «может и должно быть» этическим, наряду с укреплением международной безопасности. Но реальные реалии показывают совершенно иную картину, как обсуждалось выше.

Обнаружение и определение местонахождения военнослужащих противника является одним из применений таких систем; с развитием взрывных технологий мы понятия не имеем, какие еще сложные военные применения могут возникнуть.

Читайте также: Касперский опроверг обвинения в помощи российским военным

Дебаты об исключении ИИ из войны, похоже, на данный момент невозможны, но законодатели во всем мире и правительства, участвующие в конфликтах, должны признать отсутствие возможностей ИИ и потенциальный хаос, который он может нанести. мы, люди.

В настоящее время разработка политики не соответствует темпам инноваций, и эту проблему необходимо решать в некоторой степени, если не полностью, поскольку мы не можем просто сидеть и говорить: «Ух ты!» ИИ совершил еще 1000 убийств. Что представит ИИ? Мы пока не знаем, но то, что должны делать политики, — это вопрос не только для гениев.

Криптополитический репортаж Аамира Шейха.