AI 生成的圖像可能會欺騙您將虛假內容誤認爲是原創內容。因此,ChatGPT 的開發者 OpenAI 創建了一個工具,可以確定圖像是否來自他們開發的一種圖像生成算法 DALL-E 3。

週二,OpenAI 首次爲用戶提供了試用由基線模型和調整模型組成的圖像檢測工具的機會。其目標是讓自我表現的研究人員來研究其可預測性、實用性、應用方式以及可能導致 AI 生成內容的因素。

工具的成功率和測試

OpenAI 已對該工具進行了內部測試,在某些方面,它令人鼓舞,而另一方面,它卻令人非常失望。評估 DALL-E 3 生成的圖像時,98% 的圖像渲染正確。此外,在分析非 DALL-E 3 生成的照片時,系統只有 0.5% 的時間會錯誤地將其歸因於 DALL-E 3。

OpenAI 沒有發現對圖像有稍微明顯差異的修改。內部團隊通過壓縮、剪裁和對 DALL-E 3 創建的圖像引入飽和度變化來測試該工具,並觀察到該工具仍然能夠取得良好的成功水平。

挑戰與限制

不幸的是,該工具對於經過大量處理的圖片效果不佳。OpenAI 的這篇文章的措辭並沒有明確說明他們在描述的案例中做了多少修改,他們說“其他修改可能會降低性能”。

研究員 Sandhini Agarwal 在接受《華爾街日報》採訪時表示,該工具在改變圖像色調等情況下效果較差,而且需要訂閱。正如 Agarwal 所說,爲了解決這類問題,OpenAI 將爲系統引入外部測試人員。

此外,內部測試還質疑該工具分析其他公司 AI 模型製作的圖像的能力。在這種情況下,OpenAI 的工具只能識別 5% 或 10% 的圖像,而其他模型則無法識別。Agarwal 告訴《華爾街日報》,對此類圖像進行色調切換等修改也顯著降低了效率。

人工智能製作的圖像不僅是人造的,而且在選舉之年也帶來了問題。國內外的不滿團體可以輕易利用這些照片來玷污有抱負的政治家或正在倡導的案件。如今,隨着人工智能圖像生成器的不斷髮展,現實與幻想之間的界限比以往任何時候都更難分辨。

行業採用

另一方面,隨着企業成爲用戶價值組織 (UVG) 的成員,OpenAI 正尋求在 AI 圖像元數據中添加水印。C2PA 屬於一項技術行業計劃,該計劃附帶技術標準,以在稱爲水印的過程中揭示內容的來源及其真實性。Facebook 巨頭 Meta 本月早些時候表示,從今年 5 月開始,其 AI 將按照 C2PA 標準進行標記。