TLDR:
Ученые в области искусственного интеллекта предупреждают о возможных катастрофических последствиях, если люди потеряют контроль над искусственным интеллектом
Глобальная система надзора и планы действий в чрезвычайных ситуациях призваны предотвратить риски, связанные с ИИ
Предлагаются три ключевых процесса: готовность к чрезвычайным ситуациям, обеспечение безопасности и независимые исследования.
Под заявлением подписались более 30 экспертов из разных стран.
Высказываются опасения по поводу отсутствия научного обмена между сверхдержавами по вопросам угроз ИИ
Эксперты в области искусственного интеллекта (ИИ) со всего мира выступили с предупреждением о потенциальных рисках, связанных с передовыми системами ИИ.
В заявлении, опубликованном 16 сентября 2024 года, более 30 ученых из разных стран, включая США, Канаду, Китай и Великобританию, призвали к созданию глобальной системы надзора для предотвращения возможных «катастрофических последствий», если люди потеряют контроль над ИИ.
В заявлении, основанном на результатах Международного диалога по безопасности ИИ в Венеции, подчеркивается необходимость международного сотрудничества и управления в области развития ИИ.
Ученые утверждают, что безопасность ИИ следует признать глобальным общественным благом, требующим коллективных усилий по устранению потенциальных рисков.
Одной из главных проблем, отмеченных в заявлении, является возможность потери контроля человека над передовыми системами ИИ или их злонамеренное использование. Эксперты предупреждают, что такие сценарии могут привести к ужасным последствиям для человечества.
Они отмечают, что необходимые научные знания для контроля и защиты высокоразвитого ИИ еще не разработаны, что подчеркивает срочность решения этих проблем.
Для решения этих проблем ученые предлагают три ключевых процесса.
Во-первых, они призывают к созданию соглашений и институтов по готовности к чрезвычайным ситуациям. Это будет включать в себя разработку органов в каждой стране для обнаружения и реагирования на инциденты ИИ и катастрофические риски. Затем эти внутренние органы будут работать вместе, чтобы создать глобальный план действий на случай серьезных инцидентов, связанных с ИИ.
Второй предлагаемый процесс — это внедрение фреймворка обеспечения безопасности. Это потребует от разработчиков ИИ предоставления высоконадежного обоснования безопасности перед развертыванием моделей с возможностями, превышающими указанные пороговые значения. Фреймворк также будет включать мониторинг после развертывания и независимые аудиты для обеспечения постоянной безопасности.
Наконец, эксперты выступают за независимые глобальные исследования безопасности и проверки ИИ. Это исследование будет сосредоточено на разработке методов для строгой проверки заявлений о безопасности, сделанных разработчиками ИИ и, возможно, другими странами. Для обеспечения независимости исследование будет проводиться по всему миру и финансироваться широким кругом правительств и филантропов.
Заявление прозвучало в то время, когда научный обмен между сверхдержавами сокращается, а недоверие между США и Китаем растет. Ученые утверждают, что это отсутствие сотрудничества затрудняет достижение консенсуса по угрозам ИИ, что еще больше подчеркивает необходимость глобального диалога и сотрудничества.
В начале сентября 2024 года США, Европейский союз и Великобритания подписали первый в мире юридически обязывающий международный договор по ИИ. Это соглашение отдает приоритет правам человека и ответственности в регулировании ИИ. Однако некоторые технологические корпорации и руководители выразили обеспокоенность тем, что чрезмерное регулирование может подавить инновации, особенно в Европейском союзе.
В группу экспертов в области ИИ, подписавших заявление, входят исследователи из ведущих институтов и университетов в области ИИ, а также несколько лауреатов премии Тьюринга, которая считается эквивалентом Нобелевской премии в области вычислительной техники.
Их коллективный опыт придает значительный вес высказанным в заявлении опасениям и рекомендациям.
Публикация Защитим человечество от ИИ: эксперты призывают к глобальному надзору для предотвращения потенциальной катастрофы ИИ впервые появилась на Blockonomi.