欧盟公布了《人工智能法案》的最终文本,概述了遵守世界上第一部全面的人工智能规则手册的关键期限。该法案于 5 月获得欧盟理事会批准后,将于 2024 年 8 月 1 日生效。

《人工智能法案》旨在防止“高风险”人工智能对民主、人权、环境和法治的威胁。然而,中国公司预计将花费更多时间和金钱来遵守新的人工智能法规。香港 Dayta AI 联合创始人兼首席执行官 Partick Tu 预计,其公司的成本将增加 20% 至 40%。

欧盟授权人工智能监管沙盒

该法案要求位于欧盟的人工智能开发商在2026年8月2日之前实施其规定。每个欧盟成员国都必须在此日期之前满足这一要求,并且每个国家都必须在国家层面建立至少一个人工智能监管沙盒。这些沙盒将使开发人员能够在既定的法律框架内测试人工智能系统,以免阻碍技术的发展。

生物识别技术开发商、提供商和用户必须在 2025 年 2 月 2 日这个新截止日期之前完成这一工作。这一截止日期禁止使用“不可接受的风险”人工智能应用,例如基于敏感特征的生物识别分类、工作环境和教育机构中的情绪识别以及为面部识别数据库大规模抓取面部图像。不过,在某些条件下,警察可以例外。

另请阅读:微软首席技术官捍卫人工智能扩展定律

2025 年 5 月 2 日之前,新成立的人工智能办公室应该向人工智能提供商发布行为准则。以下准则将说明提供商如何证明其遵守该法案。从 2025 年 8 月开始,包括 ChatGPT 在内的通用人工智能系统将被要求遵守版权和透明度规范。

此外,高风险人工智能系统的开发者必须在《人工智能法案》生效一年后的 2027 年 8 月 27 日之前满足《人工智能法案》附件一中规定的额外要求。只要满足以下条件,远程生物特征识别等高风险人工智能应用就可以在欧盟市场上销售。

法案对违法行为处以严厉处罚

根据该法案,任何不遵守该法案规定的公司都将受到严厉处罚。罚款金额从 3500 万欧元(3800 万美元)到公司上一年度总收入的 7% 不等,以高于行政处罚的金额为准。

Harbottle and Lewis律师事务所的Emma Wright对于该法案的出台评论道:“欧盟人工智能法案是全球范围内首次对人工智能进行监管的重大尝试——其合规成本是否会扼杀创新,或者其所建立的人工智能治理模式是否会成为欧盟的旗舰输出,仍有待观察。”

人工智能的发展速度,尤其是最近发布的 ChatGPT 等生成式人工智能,已经远远超过了监管的速度。多个国家和贸易集团一直在制定法律框架来规范人工智能的使用。