В ближайшем будущем пользователи приложений генеративного ИИ могут найти этикетки, в которых четко описывается, как следует использовать ИИ, связанные с ним риски и процесс его тестирования. Согласно новым правилам, маркировка станет обязательной, чтобы облегчить понимание технологии массами.

Читайте также: Европейский Союз (ЕС) играет ведущую роль в регулировании ИИ

Министр связи и информации Сингапура Жозефина Тео заявила, что новая мера является попыткой определить стандарт прозрачности и тестирования для технологических компаний. Согласно сообщению Strait Times, она выступала на технологической конференции по защите персональных данных 15 июля. 

Разработчики приложений искусственного интеллекта должны открыто рассказывать о своих инновациях

Подобно тому, как лекарства или бытовая техника имеют маркировку безопасности, разработчики приложений генеративного ИИ должны четко информировать пользователей об использовании и разработке моделей ИИ. Г-жа Тео, которая также является министром, отвечающим за инициативу «Умная нация» и кибербезопасность, сказала:

«Мы будем рекомендовать разработчикам и специалистам по развертыванию быть прозрачными с пользователями, предоставляя информацию о том, как работают модели и приложения генеративного ИИ».

Объясняя предстоящие правила, министр сказал, что они такие же, как если бы пользователь открывал «коробку с лекарствами, отпускаемыми без рецепта». Они находят лист бумаги, на котором четко указано, как следует использовать лекарство и возможные «побочные эффекты, с которыми вы можете столкнуться».

Тео заявил, что «такой уровень прозрачности» необходим для систем искусственного интеллекта, построенных на едином генеративном искусственном интеллекте. Новый свод правил определит критерии безопасности, которые следует соблюдать, прежде чем модель ИИ станет доступной для общественности. 

Руководство по анонимизации данных выйдет в 2025 году

Генеративный искусственный интеллект — это жанр ИИ, который способен генерировать новый текст и изображения и не так предсказуем, как традиционный ИИ. Согласно новым правилам, создатели будут обязаны упоминать о рисках распространения лжи, враждебных комментариев и предвзятых повествований в контенте.

Тео сказал, что бытовая техника поставляется с этикетками, на которых четко указано, что она проходит испытания на безопасное использование; в противном случае покупатель не будет знать, безопасно ли устройство или нет. То же самое будет применяться и к приложениям ИИ. Управление по развитию инфокоммуникационных медиа Сингапура (IMDA) начнет консультации с представителями отрасли по новым правилам. Однако Тео не назвал дату публикации рекомендаций.

По словам Тео, IMDA также опубликовало руководство по вопросам конфиденциальности в технологиях, которое будет удовлетворять растущий спрос на данные для обучения моделей искусственного интеллекта и одновременно защищать конфиденциальность пользователей.

Читайте также: Круглый стол демократов примет Марка Кьюбана и Брэда Гарлингхауса для обсуждения правил криптовалюты

Помощник генерального директора IMDA Дениз Вонг сказала: «Защита данных с помощью генеративного искусственного интеллекта является более сложной задачей для отрасли. Во время мероприятия она высказала свое мнение в рамках отдельной групповой дискуссии по вопросам искусственного интеллекта и конфиденциальности данных. В состав группы вошли представители различных технологических компаний, в том числе производитель ChatGPT OpenAI и консалтинговая фирма Accenture. 

По словам юридического директора OpenAI по вопросам конфиденциальности Джессики Ган Ли, меры защиты данных должны быть предусмотрены на всех этапах разработки и внедрения ИИ. Она сказала, что модели ИИ следует обучать на разнообразных наборах данных со «всех уголков мира». Ли подчеркнул, что в обучение ИИ следует включать различные культуры, языки и источники, а также находить способы ограничения обработки персональных данных.

Тео сказал, что руководство по анонимизации данных будет представлено для компаний, работающих в АСЕАН, в начале 2025 года. Руководство станет результатом февральской встречи региональных чиновников, которые изучали способы создания безопасной глобальной цифровой экосистемы.