Найближчим часом користувачі генеративних програм штучного інтелекту можуть знайти позначки, які чітко описують, як слід використовувати штучний інтелект, пов’язані з ним ризики та процес його тестування. Згідно з новими вказівками, етикетки стануть обов’язковими, щоб зробити технологію легшою для розуміння масами.

Читайте також: Європейський Союз (ЄС) бере лідерство в регулюванні ШІ

Міністр зв’язку та інформації Сінгапуру пані Джозефін Тео заявила, що новий захід є спробою визначити стандарт прозорості та тестування для технологічних компаній. Згідно зі звітом Strait Times, вона виступала на технічній конференції із захисту персональних даних 15 липня. 

Розробники додатків зі штучним інтелектом повинні бути прозорими щодо своїх інновацій

Подібно до того, як ліки або побутова техніка мають етикетки безпеки, у тій самій практиці розробники генеративних додатків ШІ повинні чітко інформувати користувачів про використання та розвиток моделі ШІ. Пані Тео, яка також є відповідальним міністром ініціативи «Розумна нація та кібербезпека», сказала:

«Ми будемо рекомендувати, щоб розробники та розгортачі були прозорими з користувачами, надаючи інформацію про те, як працюють генеративні моделі ШІ та додатки».

Пояснюючи майбутні правила, міністр зазначив, що вони такі ж, як коли користувач відкриває «коробку безрецептурних ліків». Вони знаходять аркуш паперу, на якому чітко зазначено, як слід використовувати ліки та можливі «побічні ефекти, з якими ви можете зіткнутися».

Тео стверджував, що «такий рівень прозорості» необхідний для систем штучного інтелекту, які побудовані на єдиному генеративному штучному інтелекті. Новий набір правил визначатиме контрольні показники безпеки, які слід відпрацювати до того, як модель штучного інтелекту стане доступною для громадськості. 

Керівництво з анонімізації даних планується випустити в 2025 році

Генеративний штучний інтелект – це жанр штучного інтелекту, який здатний генерувати новий текст і зображення та не такий передбачуваний, як традиційний штучний інтелект. Згідно з новими правилами, творці повинні будуть згадувати про ризики поширення брехні, ворожих коментарів і упереджених оповідань у контенті.

Тео сказав, що побутова техніка постачається з етикетками, на яких чітко вказано, що предмет перевіряється на безпечне використання; інакше клієнт не знатиме, безпечний прилад чи ні. Те саме буде практикуватися для додатків ШІ. Управління з розвитку засобів масової інформації Сінгапуру (IMDA) розпочне консультації з індустрією щодо нових правил. Однак Тео не назвав дати вказівок.

IMDA також опублікувала посібник із питань, пов’язаних із конфіденційністю в технологіях, який задовольнить зростаючий попит на дані для навчання моделей штучного інтелекту, одночасно захищаючи конфіденційність користувачів, сказав Тео.

Читайте також: Круглий стіл демократів, який проведе Марка Кьюбана та Бреда Гарлінгхауса, щоб обговорити регулювання криптовалюти

Помічник виконавчого директора IMDA Деніз Вонг сказала, що збереження даних у генеративному штучному інтелекті є більш складним для галузі. Під час заходу вона висловила свої погляди в окремій панельній дискусії щодо ШІ та конфіденційності даних. Представники різних технологічних компаній були частиною панелі, включаючи виробника ChatGPT OpenAI і консалтингову компанію Accenture. 

На всіх етапах розробки та розгортання штучного інтелекту мають існувати засоби захисту даних, сказала Джессіка Ган Лі, керівник юридичних питань OpenAI з питань конфіденційності. Вона сказала, що моделі штучного інтелекту слід навчати на різноманітних наборах даних з «усіх куточків світу». Лі підкреслив, що в навчання штучному інтелекту слід включити різні культури, мови та джерела, а також знайти способи обмежити обробку персональних даних.

Тео сказав, що на початку 2025 року для компаній, що працюють в АСЕАН, буде представлено керівництво з анонімізації даних. Посібник стане результатом лютневої зустрічі регіональних чиновників, які досліджували шляхи створення безпечної глобальної цифрової екосистеми.