8月1日生效的歐盟《人工智能(AI)法案》要求人工智能開發者遵守嚴格措施,並對違規行爲處以鉅額罰款。
歐盟發佈了《人工智能(AI)法案》最終文本,標誌着世界上第一套全面的人工智能規則。該法案於2024年5月獲得歐盟理事會批准後,將於2024年8月1日起實施。該法律旨在最大限度地減少“高風險”人工智能應用的風險,保護民主、人權、環境和法治。
然而,新的人工智能法規給世界各地的企業,尤其是中國企業帶來了重大挑戰。香港 Dayta AI 聯合創始人兼首席執行官 Patrick Tu 預測,爲了遵守嚴格的歐盟規則,運營成本將增加 20% 至 40%。這對全球人工智能開發商來說意味着更廣泛的財務和運營影響。
《人工智能法案》要求歐盟人工智能開發商在 2026 年 8 月 2 日之前實施其法規。每個歐盟成員國必須至少創建一個人工智能技術的受控測試機制(監管沙箱),爲開發者提供一個在法律限制內不受阻礙地測試人工智能系統的環境。
對於生物識別 AI 開發者、供應商和用戶來說,截止日期是 2025 年 2 月 2 日。該法律禁止人工智能應用帶來“不可接受的風險”,包括基於敏感特徵的生物識別分類、工作和學校環境中的情緒識別以及面部識別數據庫的批量照片收集。值得注意的是,在某些情況下執法有特定的豁免。
到2025年5月2日,新成立的人工智能辦公室將發佈行爲準則,指導人工智能供應商合規。從 2025 年 8 月開始,ChatGPT 等通用人工智能系統必須遵守版權和透明度標準。高風險人工智能系統的開發者必須在 2027 年 8 月 27 日之前滿足《人工智能法案》附表 I 中規定的附加要求。
違反《人工智能法》的處罰和法律影響
如果企業不遵守《人工智能法案》,將受到嚴厲處罰,處罰範圍從 3500 萬歐元(3800 萬美元)到公司上一年總收入的 7% 不等,以較高者爲準。 Harbottle and Lewis 律師事務所的艾瑪·賴特 (Emma Wright) 評論道:“歐盟人工智能法案是全球監管人工智能的首次重大嘗試。合規成本是否會扼殺創新,或者人工智能治理模式是否會成爲歐盟的主要出口產品,還有待觀察。”
人工智能技術的快速發展,尤其是像 ChatGPT 這樣的生成式人工智能,已經超過了監管的速度。世界各國和貿易集團正在試圖建立法律框架來規範人工智能的使用,反映出人們對人工智能治理必要性的認識不斷增強。