Консультативный орган ООН по искусственному интеллекту опубликовал свой окончательный отчет, в котором изложены семь ключевых рекомендаций по устранению рисков, связанных с ИИ, и пробелов в управлении. Отчет был опубликован в четверг и будет представлен на саммите ООН в сентябре.

Орган из 39 членов, назначенный ООН в прошлом году, предложил создать глобальный орган для предоставления объективной и достоверной научной информации об ИИ. Эта группа помогла бы уравнять состояние информации между разработчиками ИИ и остальной частью населения, предоставив всеобъемлющее представление о предмете и его развитии.

Консультативный орган предупреждает о рисках монополизации ИИ

Кроме того, отчет призывает к новым политическим обсуждениям о том, как управлять ИИ, предлагаемые меры включают создание биржи стандартов ИИ. Это будет способствовать разработке международных руководств. Согласно отчету, это также поможет странам обмениваться информацией о лучших способах регулирования использования технологий ИИ.

В своем отчете консультативный орган также предупредил о рисках монополизации ИИ несколькими крупными транснациональными корпорациями. Чтобы смягчить эти риски, ООН рекомендовала создать Глобальную сеть развития потенциала ИИ. Это позволит улучшить управление в странах, в которых отсутствует инфраструктура или персонал для решения проблемы регулирования ИИ.

Одной из основных рекомендаций в отчете является создание глобального фонда ИИ. Этот фонд будет призван помочь заполнить пробелы в сотрудничестве и наращивании потенциала. Это облегчит доступность управления ИИ во всех странах, независимо от уровня их технологического развития.

ООН предлагает глобальную систему данных ИИ для повышения подотчетности

Еще одна рекомендация отчета заключается в том, что должна быть глобальная система данных ИИ. При наличии такой структуры будет легче возложить на операции ИИ большую ответственность за управление данными, конфиденциальность и решения, принимаемые алгоритмами. Консультативный орган заявил, что такие меры важны для укрепления общественного доверия к ИИ и предотвращения его ненадлежащего использования.

Кроме того, Великобритания проведет конференцию в Сан-Франциско 21 и 22 ноября, посвященную безопасности ИИ. Мероприятие будет состоять из нескольких семинаров и сессий, направленных на совершенствование мер безопасности и руководящих принципов для разработки ИИ. Эта конференция проводится перед саммитом AI Action Summit, который пройдет во Франции в феврале 2025 года. Темой обсуждения станет безопасность и регулирование ИИ.