在之前的工具出现不足之后,OpenAI 推出了另一种 AI 检测器,该检测器专注于图像和不断上升的深度造假风险。
OpenAI 是生成人工智能领域的先驱,在社交媒体上传播误导性内容日益普遍的情况下,它正在迎接检测深度伪造图像的挑战。最近在加利福尼亚州拉古纳海滩举行的《华尔街日报》技术直播会议上,该公司首席技术官米拉·穆拉蒂 (Mira Murati) 推出了一款新的 Deepfake 探测器。
Murati 表示,OpenAI 的新工具在确定图片是否是使用 AI 生成时拥有“99% 的可靠性”。
人工智能生成的图像可以包括各种内容,从轻松的创作(例如穿着蓬松的 Balenciaga 外套的教皇弗朗西斯)到可能造成财务严重破坏的欺骗性图像。人工智能的潜力和陷阱是显而易见的。随着这些工具变得越来越复杂,区分真实的内容和人工智能生成的内容被证明是一个挑战。
虽然该工具的发布日期仍处于保密状态,但它的发布引起了人们的极大兴趣,特别是考虑到 OpenAI 过去的努力。
2022 年 1 月,该公司推出了一款文本分类器,据称可以将人类书写与来自 ChatGPT 等模型的机器生成文本区分开来。但到了 7 月份,OpenAI 悄悄关闭了该工具,并发布更新称其错误率高得令人无法接受。他们的分类器在 9% 的情况下将真实的人类写作错误地标记为人工智能生成。
如果Murati的说法属实,这将是该行业的一个重要时刻,因为当前检测人工智能生成图像的方法通常不是自动化的。通常,爱好者依赖直觉,并专注于阻碍生成人工智能的众所周知的挑战,例如描绘手、牙齿和图案。人工智能生成的图像和人工智能编辑的图像之间的区别仍然模糊,特别是当人们试图使用人工智能来检测人工智能时。
OpenAI 不仅致力于检测有害的人工智能图像,它还设置了审查自己的模型的护栏,甚至超出了其内容指南中公开声明的范围。
正如Decrypt 发现的那样,OpenAI 的 Dall-E 工具似乎被配置为在没有通知的情况下修改提示,并在被要求生成特定输出时悄悄地抛出错误,即使它们符合已发布的指南,并避免创建涉及特定名称、艺术家风格、和种族。
ChatGPT 中 Dall-E 3 提示的一部分。来源:Decryp
检测深度赝品不仅仅是 OpenAI 的事业。DeepMedia 是一家开发该功能的公司,专门与政府客户合作。
微软和 Adobe 等大公司也纷纷卷起袖子。他们推出了所谓的“人工智能水印”系统。该机制由内容来源和真实性联盟 (C2PA) 推动,在语音气泡内包含一个独特的“cr”符号,表示人工智能生成的内容。该符号旨在充当透明的灯塔,使用户能够辨别内容的来源。
然而,与任何技术一样,它并不是万无一失的。有一个漏洞可以删除携带此符号的元数据。然而,作为解决方案,Adobe 还推出了能够恢复丢失的元数据的云服务,从而确保符号的存在。它也不难规避。
随着监管机构逐渐将深度造假定为犯罪,这些创新不仅是技术成就,也是社会必需品。OpenAI 以及微软和 Adobe 等公司最近的举措强调了确保数字时代真实性的集体努力。尽管这些工具经过升级以提供更高程度的真实性,但它们的有效实施取决于广泛采用。这不仅涉及科技巨头,还涉及内容创作者、社交媒体平台和最终用户。
随着生成式人工智能的快速发展,探测器仍然难以区分文本、图像和音频的真实性。目前,人类的判断和警惕是我们防止人工智能滥用的最佳防线。然而,人类并非绝对正确。持久的解决方案需要技术领导者、立法者和公众共同努力,探索这个复杂的新领域。#OpenAI #AI检测