在之前的工具出現不足之後,OpenAI 推出了另一種 AI 檢測器,該檢測器專注於圖像和不斷上升的深度造假風險。
OpenAI 是生成人工智能領域的先驅,在社交媒體上傳播誤導性內容日益普遍的情況下,它正在迎接檢測深度僞造圖像的挑戰。最近在加利福尼亞州拉古納海灘舉行的《華爾街日報》技術直播會議上,該公司首席技術官米拉·穆拉蒂 (Mira Murati) 推出了一款新的 Deepfake 探測器。
Murati 表示,OpenAI 的新工具在確定圖片是否是使用 AI 生成時擁有“99% 的可靠性”。
人工智能生成的圖像可以包括各種內容,從輕鬆的創作(例如穿着蓬鬆的 Balenciaga 外套的教皇弗朗西斯)到可能造成財務嚴重破壞的欺騙性圖像。人工智能的潛力和陷阱是顯而易見的。隨着這些工具變得越來越複雜,區分真實的內容和人工智能生成的內容被證明是一個挑戰。
雖然該工具的發佈日期仍處於保密狀態,但它的發佈引起了人們的極大興趣,特別是考慮到 OpenAI 過去的努力。
2022 年 1 月,該公司推出了一款文本分類器,據稱可以將人類書寫與來自 ChatGPT 等模型的機器生成文本區分開來。但到了 7 月份,OpenAI 悄悄關閉了該工具,併發布更新稱其錯誤率高得令人無法接受。他們的分類器在 9% 的情況下將真實的人類寫作錯誤地標記爲人工智能生成。
如果Murati的說法屬實,這將是該行業的一個重要時刻,因爲當前檢測人工智能生成圖像的方法通常不是自動化的。通常,愛好者依賴直覺,並專注於阻礙生成人工智能的衆所周知的挑戰,例如描繪手、牙齒和圖案。人工智能生成的圖像和人工智能編輯的圖像之間的區別仍然模糊,特別是當人們試圖使用人工智能來檢測人工智能時。
OpenAI 不僅致力於檢測有害的人工智能圖像,它還設置了審查自己的模型的護欄,甚至超出了其內容指南中公開聲明的範圍。
正如Decrypt 發現的那樣,OpenAI 的 Dall-E 工具似乎被配置爲在沒有通知的情況下修改提示,並在被要求生成特定輸出時悄悄地拋出錯誤,即使它們符合已發佈的指南,並避免創建涉及特定名稱、藝術家風格、和種族。
ChatGPT 中 Dall-E 3 提示的一部分。來源:Decryp
檢測深度贗品不僅僅是 OpenAI 的事業。DeepMedia 是一家開發該功能的公司,專門與政府客戶合作。
微軟和 Adobe 等大公司也紛紛捲起袖子。他們推出了所謂的“人工智能水印”系統。該機制由內容來源和真實性聯盟 (C2PA) 推動,在語音氣泡內包含一個獨特的“cr”符號,表示人工智能生成的內容。該符號旨在充當透明的燈塔,使用戶能夠辨別內容的來源。
然而,與任何技術一樣,它並不是萬無一失的。有一個漏洞可以刪除攜帶此符號的元數據。然而,作爲解決方案,Adobe 還推出了能夠恢復丟失的元數據的雲服務,從而確保符號的存在。它也不難規避。
隨着監管機構逐漸將深度造假定爲犯罪,這些創新不僅是技術成就,也是社會必需品。OpenAI 以及微軟和 Adobe 等公司最近的舉措強調了確保數字時代真實性的集體努力。儘管這些工具經過升級以提供更高程度的真實性,但它們的有效實施取決於廣泛採用。這不僅涉及科技巨頭,還涉及內容創作者、社交媒體平臺和最終用戶。
隨着生成式人工智能的快速發展,探測器仍然難以區分文本、圖像和音頻的真實性。目前,人類的判斷和警惕是我們防止人工智能濫用的最佳防線。然而,人類並非絕對正確。持久的解決方案需要技術領導者、立法者和公衆共同努力,探索這個複雜的新領域。#OpenAI #AI检测