Cover Image

Tether 首席執行官 Paolo Ardoino 最近在 X 社交媒體網絡上警告了集中式大型語言模型 (LLM) 的缺陷。

Ardoino 指出,有報道稱領先的生成式人工智能公司 OpenAI 在 2023 年初遭遇重大安全漏洞,他稱該事件“令人恐懼”。

據《紐約時報》最近的報道,儘管一些敏感信息最終被泄露,但 OpenAI 選擇不披露這一泄密事件。

卡片

前 OpenAI 研究員 Leopold Aschenbrenner 批評該公司的安全措施不足,這可能使其容易受到與外國政府有關的惡意行爲者的攻擊。Aschenbrenner 聲稱,這位人工智能領導人出於政治原因選擇與他斷絕關係。然而,該公司否認上述事件是該研究員被解僱的原因,並補充說,這一漏洞早在他被 OpenAI 聘用之前就已經被披露。

儘管 OpenAI 聲稱其現有技術不存在國家安全風險,但仍有人擔心其機密最終會落入中國手中。

卡片

除了安全事件外,中心化 AI 模型還因不道德的數據使用和審查而受到批評。Tether 老闆認爲,釋放本地 AI 模型的力量是解決隱私問題以及確保彈性和獨立性的“唯一方法”。

“本地可執行的人工智能模型是保護人們隱私和確保彈性/獨立性的唯一方法,”Ardoino 在X社交媒體網絡的一篇帖子中表示。

他補充說,現代智能手機和筆記本電腦足夠強大,可以對普通法學碩士學位進行微調。