Институт безопасности искусственного интеллекта США, часть Национального института стандартов и технологий (NIST) при Министерстве торговли США, объявил о новых соглашениях, направленных на поддержку исследований и оценки безопасности ИИ. Эти соглашения, формализованные посредством Меморандумов о взаимопонимании (МОВ), устанавливают совместную структуру с двумя ведущими компаниями в области ИИ, Anthropic и OpenAI. Партнерства призваны облегчить доступ к новым моделям ИИ от обеих компаний, что позволит институту проводить тщательные оценки как до, так и после того, как эти модели будут публично выпущены.

Меморандумы о взаимопонимании позволяют Институту безопасности искусственного интеллекта США участвовать в совместных исследованиях с Anthropic и OpenAI, уделяя особое внимание оценке возможностей искусственного интеллекта и выявлению рисков для безопасности. Ожидается, что это сотрудничество будет способствовать развитию методологий для снижения потенциальных рисков, связанных с передовыми системами искусственного интеллекта. Элизабет Келли, директор Института безопасности искусственного интеллекта США, подчеркнула, что безопасность является важнейшим компонентом технологических инноваций, и выразила ожидание предстоящего технического сотрудничества с этими фирмами, занимающимися искусственным интеллектом. Она отметила, что эти соглашения представляют собой важную веху в постоянных усилиях института по руководству ответственной разработкой искусственного интеллекта.

В дополнение к этим совместным проектам Институт безопасности искусственного интеллекта США предоставит обратную связь как Anthropic, так и OpenAI о возможных улучшениях безопасности их моделей. Эта работа будет проводиться в тесном партнерстве с Институтом безопасности искусственного интеллекта Великобритании, отражая более широкие международные усилия по обеспечению безопасной и надежной разработки технологий искусственного интеллекта.

Усилия Института безопасности ИИ США основаны на долгой истории NIST по продвижению науки, технологий и стандартов измерений. Оценки, проводимые в рамках этих соглашений, будут способствовать более широким инициативам NIST в области ИИ, которые соответствуют указу администрации Байдена-Харриса об ИИ. Цель состоит в том, чтобы поддержать безопасную, защищенную и надежную разработку систем ИИ, основываясь на добровольных обязательствах, взятых ведущими разработчиками ИИ перед администрацией.

Согласно сообщению Reuters, в среду законодатели Калифорнии одобрили спорный законопроект о безопасности ИИ, который теперь ожидает решения губернатора Гэвина Ньюсома. Ньюсом, демократ, должен до 30 сентября либо наложить вето на законопроект, либо подписать его. Законопроект обязывает проводить тестирование безопасности и другие меры безопасности для моделей ИИ, превышающих определенные затраты или вычислительную мощность, — мера, которая, по мнению некоторых технологических компаний, может помешать инновациям.

Главное изображение с Pixabay