Группа ученых, занимающихся искусственным интеллектом, призывает страны создать глобальную систему надзора, чтобы предотвратить потенциальные «катастрофические последствия», если люди потеряют контроль над ИИ.

В заявлении, опубликованном 16 сентября, группа влиятельных ученых в области искусственного интеллекта выразила обеспокоенность тем, что технология, которую они помогли разработать, может нанести серьезный вред, если человеческий контроль будет утрачен.

«Потеря контроля со стороны человека или злонамеренное использование этих систем ИИ может привести к катастрофическим последствиям для всего человечества», — говорится в заявлении, а затем следует продолжение:

«К сожалению, мы пока не разработали необходимые научные методы для контроля и обеспечения безопасности использования столь передового интеллекта».

Ученые согласились с тем, что странам необходимо создать органы для обнаружения и реагирования на инциденты, связанные с ИИ, и катастрофические риски в пределах их юрисдикций, а также разработать «глобальный план действий в чрезвычайных ситуациях».

«В долгосрочной перспективе государствам следует разработать международный режим управления, чтобы предотвратить развитие моделей, которые могут создать глобальные катастрофические риски».

Заявление основано на выводах Международного диалога по безопасности ИИ, состоявшегося в Венеции в начале сентября. Это третья встреча такого рода, организованная некоммерческой американской исследовательской группой Safe AI Forum.

Профессор Университета Джонса Хопкинса Джиллиан Хэдфилд, которая поделилась этим заявлением в посте на X, сказала: «Если через шесть месяцев произойдет какая-то катастрофа, если мы обнаружим, что есть модели, которые начинают автономно самосовершенствоваться, кому вы позвоните?»

Источник: Джиллиан Хэдфилд

Они заявили, что безопасность ИИ признана глобальным общественным благом, требующим международного сотрудничества и управления.

Разработчики ИИ предложили три ключевых процесса: соглашения и институты по обеспечению готовности к чрезвычайным ситуациям, структуру обеспечения безопасности и независимые глобальные исследования безопасности и проверки ИИ.

Заявление подписали более 30 человек из США, Канады, Китая, Великобритании, Сингапура и других стран. В группу вошли эксперты из ведущих исследовательских институтов и университетов в области ИИ, а также несколько лауреатов премии Тьюринга, эквивалента Нобелевской премии по вычислительной технике.

Ученые заявили, что диалог был необходим из-за сокращения научного обмена между сверхдержавами и растущего недоверия между США и Китаем, что еще больше усложнило достижение консенсуса по угрозам ИИ.

В начале сентября США, ЕС и Великобритания подписали первый в мире юридически обязывающий международный договор по ИИ, в котором приоритет отдается правам человека и ответственности при регулировании ИИ.

Однако технологические корпорации и их руководители заявили, что чрезмерное регулирование может подавить инновации, особенно в Европейском союзе.

Журнал: план «адского ландшафта» для Тайваня с использованием ИИ-беспилотников, LLM слишком глупы, чтобы уничтожить человечество: AI Eye