隨著生成式 AI 的普及,網路上的數位內容愈來愈真假難辨。Google 近日宣布,計畫於未來幾個月內,在 Google Search 等平台上,推出標示圖片是否由 AI 生成及編輯的功能。

為強化數位內容透明度推 C2PA  

這項功能透過採用 C2PA(Coalition for Content Provenance and Authenticity,內容來源與真實性聯盟)技術標準,幫助使用者更清楚地辨識數位內容的來源。  

C2PA 由多家公司組成,包括 Google、亞馬遜、微軟、OpenAI 和 Adobe,致力於推動內容憑證(Content Credentials) 的技術發展。圖片的來源將在 Google Search、Google Lens 及 Circle to Search 等功能中的「關於此圖片」視窗中被標示。未來,這項標示措施也可能擴展至 YouTube 等平台。  

Google 也計畫利用 C2PA 協助 YouTube 觀眾確認哪些畫面是真的透過相機拍攝,但這取決於相機廠商是否支援 C2PA 標準,目前只有 Leica、Sony 相機支援這一標準。

C2PA 技術的挑戰  

儘管 C2PA 技術能為數位內容提供真實性保證,但其推廣和應用仍面臨不少挑戰。  

目前只有含 C2PA 元數據的圖片會被標示為 AI 生成或編輯,但 C2PA 元數據是可被移除或刪除的,甚至在傳輸過程中損壞至無法閱讀的狀態,造成 Google 無法辨識。此外,此技術需建立在 AI 技術廠商加入 C2PA 聯盟,譬如 xAI 的 Grok 聊天機器人所使用的 Flux 生成工具,因為尚未採納 C2PA 標準,因此並不具備這些元數據。  

對此 Google 表示透過 C2PA 指導委員會,針對內容憑證的技術標準進行了升級。新版內容憑證技術(2.1 版)強化了防篡改功能,不過在跨平台的採用上仍有待克服。

Deepfake 層出不窮,過去一年 AI 詐騙事件激增 245%  

近年有關 Deepfake 深偽技術所造成的犯罪層出不窮,譬如韓國在今年 8 月被爆出的「N 號房 2.0」事件,多名女性成為 deepfake 色情影像的受害者。AI 生成內容的詐騙案件也在激增。  

根據 Deloitte 的統計,從 2023 年至 2024 年,涉及 AI 生成內容的詐騙案件增長了 245%。Deloitte 進一步預測,與深偽技術相關的經濟損失將從 2023 年的 123 億美元(約 3,929 億 8,254 萬)暴增至 2027 年的 400 億美元(約 1 兆 2,779 億),顯示了加強數位內容來源驗證技術的迫切性。

【免責聲明】市場有風險,投資需謹慎。本文不構成投資建議,使用者應考慮本文的任何意見、觀點或結論是否符合其特定狀況。據此投資,責任自負。

  • 本文經授權轉載自:《數位時代》