AI 生成的图像可能会欺骗您将虚假内容误认为是原创内容。因此,ChatGPT 的开发者 OpenAI 创建了一个工具,可以确定图像是否来自他们开发的一种图像生成算法 DALL-E 3。

周二,OpenAI 首次为用户提供了试用由基线模型和调整模型组成的图像检测工具的机会。其目标是让自我表现的研究人员来研究其可预测性、实用性、应用方式以及可能导致 AI 生成内容的因素。

工具的成功率和测试

OpenAI 已对该工具进行了内部测试,在某些方面,它令人鼓舞,而另一方面,它却令人非常失望。评估 DALL-E 3 生成的图像时,98% 的图像渲染正确。此外,在分析非 DALL-E 3 生成的照片时,系统只有 0.5% 的时间会错误地将其归因于 DALL-E 3。

OpenAI 没有发现对图像有稍微明显差异的修改。内部团队通过压缩、剪裁和对 DALL-E 3 创建的图像引入饱和度变化来测试该工具,并观察到该工具仍然能够取得良好的成功水平。

挑战与限制

不幸的是,该工具对于经过大量处理的图片效果不佳。OpenAI 的这篇文章的措辞并没有明确说明他们在描述的案例中做了多少修改,他们说“其他修改可能会降低性能”。

研究员 Sandhini Agarwal 在接受《华尔街日报》采访时表示,该工具在改变图像色调等情况下效果较差,而且需要订阅。正如 Agarwal 所说,为了解决这类问题,OpenAI 将为系统引入外部测试人员。

此外,内部测试还质疑该工具分析其他公司 AI 模型制作的图像的能力。在这种情况下,OpenAI 的工具只能识别 5% 或 10% 的图像,而其他模型则无法识别。Agarwal 告诉《华尔街日报》,对此类图像进行色调切换等修改也显著降低了效率。

人工智能制作的图像不仅是人造的,而且在选举之年也带来了问题。国内外的不满团体可以轻易利用这些照片来玷污有抱负的政治家或正在倡导的案件。如今,随着人工智能图像生成器的不断发展,现实与幻想之间的界限比以往任何时候都更难分辨。

行业采用

另一方面,随着企业成为用户价值组织 (UVG) 的成员,OpenAI 正寻求在 AI 图像元数据中添加水印。C2PA 属于一项技术行业计划,该计划附带技术标准,以在称为水印的过程中揭示内容的来源及其真实性。Facebook 巨头 Meta 本月早些时候表示,从今年 5 月开始,其 AI 将按照 C2PA 标准进行标记。