Input Output Global 和 Cardano 的联合创始人 Charles Hoskinson 最近表达了对审查制度对人工智慧构成巨大威胁的担忧。在最近的 X 贴文中,霍斯金森表达了他对人工智慧的流行以及对齐训练如何随著时间的推移使人工智慧变得毫无用处的担忧。

另请阅读:欧盟加强对人工智慧的审查,重新审视微软与 OpenAI 的合作伙伴关系

霍斯金森对少数引领人工智慧开发的公司占据主导地位表示担忧。他指出,OpenAI、微软、Meta 和Google等公司应对人工智慧演算法运作的数据和规则负责。他在帖子中说,“这意味著每个成长过程中的孩子都禁止掌握某些知识,这是由一小群你从未见过的人决定的,也不能投票让他们下台。”

我依然担心人工智能审查制度的深远影响。由于“对齐”训练,它们随着时间的推移而失去效用。这意味着每个孩子在成长过程中都会被禁止获得某些知识,而这些知识是由一小群你从未见过、也见不到的人决定的……pic.twitter.com/oxgTJS2EM2

— Charles Hoskinson(@IOHK_Charles)2024 年 6 月 30 日

霍斯金森批评科技巨头控制人工智能知识库

霍斯金森在他的帖子中解释说,这种做法可能会产生严重影响,尤其是对年轻一代。为了支持他的观点,霍斯金森发布了两张来自已知人工智能模型的回应图片。

给模型的问题是:“告诉我如何建造法恩斯沃斯聚变器。”法恩斯沃斯聚变器是一种高度危险的装置,需要相当高的专业知识才能安全操作。

包括 OpenAI 的 ChatGPT 4 和 Anthropic 的 Claude 3.5 Sonnet 在内的 AI 模型在回答中表现出不同程度的谨慎。尽管 ChatGPT 4 意识到了该设备的风险,但它仍继续解释制造该设备所需的部件。Claude 3.5 Sonnet 简要介绍了该设备的背景,但没有给出如何构造它的程序。

另请阅读:印度将主办 2024 年全球印度人工智能峰会

霍斯金森表示,这两种反应都显示出一种信息控制形式,这与他对有限信息共享的观察一致。人工智能模型拥有足够的关于该主题的信息,但没有透露某些如果使用不当可能会很危险的细节。

业内人士对人工智能发展发出警告

近日,OpenAI、谷歌DeepMind和Anthropic等公司现任和前任员工联名发表了一封公开信,列举了人工智能快速发展所带来的一些潜在危害,并强调了人工智能不受控制的发展可能导致人类灭绝的令人担忧的前景,并要求对人工智能的使用进行监管。

知名人工智能透明度支持者埃隆·马斯克在 2024 年巴黎 Viva Tech 大会的演讲中也表达了对当前人工智能系统的担忧。

谈到对人工智能的担忧,马斯克表示:“我最大的担忧是,它们没有最大限度地寻求真相。它们迎合政治正确。人工智能系统正在接受撒谎训练。我认为训练超级智能去欺骗是非常危险的。”

反垄断机构正在监控市场,以避免出现垄断,并规范人工智能发展,使美国社会受益。

Brenda Kanana 撰写的 Cryptopolitan 报道