最近的一份报告揭露了 OpenAI 的安全漏洞,去年一名黑客入侵了内部消息系统,窃取了该公司人工智能技术的设计细节。《纽约时报》报道了这次泄密事件,该事件发生在一个在线论坛上,OpenAI 员工在该论坛上分享了他们目前进展的信息。

另请阅读:韩国机器人疑似“自杀”事件正在接受调查

据报道,此次泄密发生在 OpenAI 员工分享最新更新的在线论坛上。据两位熟悉该事件的匿名消息人士称,黑客并未获得 OpenAI 开发和存储其人工智能的核心系统(例如 ChatGPT)的访问权限。据《纽约时报》报道,该公司没有向公众报告此次泄密事件,因为没有任何关键数据受到损害,也没有对国家安全构成威胁。

OpenAI 在漏洞发生后维持安全措施

OpenAI 高管在去年 4 月的全体员工大会和董事会上与员工分享了这些信息。尽管发生了泄密事件,但该公司并未考虑联邦执法机构的参与,而是将事件归咎于一名与任何外国政府无关的私人。

另请阅读:研究表明,ChatGPT 在讲笑话方面的表现优于人类

报道称,尽管此次数据泄露事件并未影响该组织被认为最敏感的核心系统,但该事件表明,必须采取充分的措施来保护先进的人工智能技术。

《纽约时报》与 OpenAI 的法律纠纷出现意外转折

与此相关的是,《纽约时报》和 OpenAI 之间的法律纠纷最近有了重大进展。OpenAI 提交了文件,敦促法院命令这家知名出版商提供每部版权作品的详细源材料,以证明其文章的原创性。这一要求使案件变得更加复杂,因为该案的基础是声称未经授权使用《纽约时报》内容来训练 AI 模型。

“《纽约时报》声称,[…]它‘投入了大量的时间、专业知识和才能’,包括‘对复杂而重要的公共利益领域进行深入调查,而这些调查通常需要数月甚至数年的时间才能报道和制作完成。’

OpenAI 的律师

请求要求《纽约时报》提交与作者身份认定过程相关的所有文件,即记者笔记、采访备忘录和消息来源记录。OpenAI 的律师还指出,据《纽约时报》称,它投入了大量资源来制作世界级的新闻。因此,创作方法、时间、劳动力和投资是问题的关键。因此,他们声称 OpenAI 有权通过发现过程检查这些方面。

另请阅读:上海举办2024年世界人工智能大会

《纽约时报》在 7 月 3 日发布的法律通知中回复了 OpenAI,反对其要求提供合同相关原始资料。《纽约时报》的法律团队声称,OpenAI 的要求是新颖的,其论点是基于对版权的误解。他们认为,版权材料的创作过程与案件的核心问题无关。

预计拜登政府将在不久的将来宣布新规则,以防止包括中国和俄罗斯在内的令人担忧的国家滥用美国人工智能技术。这些都是为遏制 ChatGPT 等当前复杂的人工智能应用而提出的初步措施。

Brenda Kanana 撰写的 Cryptopolitan 报道