Cover Image

Tether 首席执行官 Paolo Ardoino 最近在 X 社交媒体网络上警告了集中式大型语言模型 (LLM) 的缺陷。

Ardoino 指出,有报道称领先的生成式人工智能公司 OpenAI 在 2023 年初遭遇重大安全漏洞,他称该事件“令人恐惧”。

据《纽约时报》最近的报道,尽管一些敏感信息最终被泄露,但 OpenAI 选择不披露这一泄密事件。

卡片

前 OpenAI 研究员 Leopold Aschenbrenner 批评该公司的安全措施不足,这可能使其容易受到与外国政府有关的恶意行为者的攻击。Aschenbrenner 声称,这位人工智能领导人出于政治原因选择与他断绝关系。然而,该公司否认上述事件是该研究员被解雇的原因,并补充说,这一漏洞早在他被 OpenAI 聘用之前就已经被披露。

尽管 OpenAI 声称其现有技术不存在国家安全风险,但仍有人担心其机密最终会落入中国手中。

卡片

除了安全事件外,中心化 AI 模型还因不道德的数据使用和审查而受到批评。Tether 老板认为,释放本地 AI 模型的力量是解决隐私问题以及确保弹性和独立性的“唯一方法”。

“本地可执行的人工智能模型是保护人们隐私和确保弹性/独立性的唯一方法,”Ardoino 在X社交媒体网络的一篇帖子中表示。

他补充说,现代智能手机和笔记本电脑足够强大,可以对普通法学硕士学位进行微调。