在不久的将来,生成式人工智慧应用程式的用户可能会找到清晰概述人工智慧应如何使用、相关风险及其测试过程的标签。根据新的指导方针,标签将成为强制性的,以使大众更容易理解该技术。

另请阅读:欧盟 (EU) 在人工智慧监管方面处于领先地位

新加坡通讯和资讯部长 Josephine Teo 女士表示,新措施旨在为科技公司制定透明度和测试标准。据海峡时报报道,她在 7 月 15 日的个人资料保护技术会议上发表讲话。 

人工智慧应用程式开发人员应该对其创新保持透明

就像药品或家用电器如何贴上安全标签的做法一样,在同样的做法中,生成式人工智慧应用程式的开发人员必须明确告知用户人工智慧模型的使用和开发。同时兼任智慧国家及网路安全计划部长的张女士表示:

“我们将建议开发人员和部署人员通过提供有关生成式人工智慧模型和应用程式如何工作的信息,对用户保持透明。”

这位部长在解释即将出台的规则时表示,这些规则与用户打开「一盒非处方药」是一样的。他们找到了一张纸,上面清楚地说明了应该如何使用该药物以及可能出现的「您可能面临的副作用」。

Teo 断言,基于产生人工智慧的人工智慧系统需要「这种程度的透明度」。这套新规则将定义在向大众提供人工智慧模型之前应实施的安全基准。 

资料匿名化指引将于 2025 年发布

生成式人工智慧是人工智慧的一种类型,能够产生新的文字和图像,并且不像传统人工智慧那样可预测。根据新的指导方针,创作者将被要求提及在内容中传播谎言、敌意评论和偏见叙述的风险。

Teo 表示,家用电器都带有标签,清楚地表明该产品正在接受安全使用测试。否则,客户将不知道该设备是否安全。人工智慧应用也将采取同样的做法。新加坡资讯通信媒体发展局(IMDA)将开始就新规则与业界进行咨询。不过,Teo 并没有提及该指南的发布日期。

Teo 表示,IMDA 也发布了一份关于技术中隐私相关问题的指南,这将满足对训练 AI 模型的资料日益增长的需求,同时保护用户的隐私。

另请阅读:马克库班和布拉德加林豪斯主持的民主党圆桌会议讨论加密货币法规

IMDA 助理执行长 Denise Wong 表示,在生成型人工智慧中保持资料安全对产业来说更具挑战性。她在活动期间关于人工智慧和资料隐私的单独小组讨论中发表了自己的观点。来自不同科技公司的代表参加了该小组,其中包括 ChatGPT 制造商 OpenAI 和顾问公司 Accenture。 

OpenAI 隐私法律负责人 Jessica Gan Lee 表示,人工智慧开发和部署的各个阶段都应该建立资料保护护栏。她表示,人工智慧模型应该在来自「世界各个角落」的不同资料集上进行训练。 Lee 强调,人工智慧培训应包含多种文化、语言和来源,同时寻找限制个人资料处理的方法。

Teo 表示,将于 2025 年初为在东协营运的公司推出资料匿名指南。