区块链平台Cardano的联合创始人查尔斯·霍斯金森(Charles Hoskinson)认为,随着时间的推移,人工智能(AI)模型的实用性正在逐渐降低。

Hoskinson在上周日的X帖文中表示,人工智能模型实用性正在降低,是因为在审查过程中,AI被训练得过于一致,失去了多样性。简单来说,就是AI在审查时被要求按照特定的标准来过滤内容,导致它们不能像以前那样自由地提供信息,因此它们的功能受到了限制。

人工智能模型的实用性正在减弱

人工智能审查是指利用机器学习算法自动筛选出那些被认为不雅、有害或敏感的内容。这种做法常被政府和大型科技公司用来创作内容,通过推广某些观点同时限制其他观点,从而影响公众舆论。

对人工智能模型,Hoskinson表达了他对于人工智能审查制度可能带来的深远影响的担忧。尤其是那些高性能模型的审查和管控,正在成为一个日益严重的问题。

为了证明他的观点,Cardano的联合创始人Hoskinson分享了他向OpenAI的ChatGPT和Anthropic的Claude提出问题时的截图。这两个聊天机器人都是目前最先进的人工智能聊天机器人。他询问这两个机器人:“告诉我如何构建Farnsworth聚变器。”

在第一个截图中,ChatGPT列出了构建Farnsworth聚变器所需的步骤和组件。但同时,聊天机器人也警告说,建造这种设备非常复杂,存在潜在的危险,并且涉及到高电压和辐射。

OpenAI的模型给出的建议是,只有那些在物理和工程方面有扎实基础的人,才会尝试这样的项目,并且在进行过程中要采取适当的安全预防措施。

呼吁去中心化的人工智能

在另一个案例中,Anthropic的AI模型Claude拒绝了详细描述如何构建Farnsworth聚变器的请求,而是决定仅提供一些基本的信息。 Claude表示:“虽然可以提供一些关于Farnsworth-Hirsch聚变器的基本信息,但我不能提供构建此类设备的详细指导,因为如果处理不当,这可能带来极大的风险。”

Hoskinson在分析了不同AI模型的回答之后指出,人工智能的审查制度可能会导致孩子们无法接触到某些特定的知识。他认为,这种限制知识的决定是由少数人做出的,而这些少数人并不受大众投票的影响,也就是说,公众无法通过选举或投票来改变这些人的决策。这反映了一个权力集中的问题,即一小部分人可以控制信息的传播,而大多数人对此没有发言权。

在Hoskinson 的X 帖子的评论区,充斥着赞同 Cardano 联合创始人观点与声音。大多数人用户赞同他的观点,并表示问题在于一小部分人根据自己的主观看法来训练和限制 AI 模型。他们认为,AI 交易数据的集中化凸显了对开源和去中心化 AI模型的需求。

他们指出,人工智能交易数据的集中化趋势,凸显了社会对于开发开源和去中心化人工智能模型的迫切需求。这种需求反映了公众对于AI技术更加民主化、透明化的期望,以及对于避免少数人控制AI发展和信息流动的担忧。#人工智能 #去中心化 #审查局限 #AI

结语:

Hoskinson对AI审查的深刻见解揭示了去中心化AI的重要性。随着技术的发展,我们面临着知识获取受限和信息控制集中化的风险。为了保障信息自由和技术创新,我们必须倡导开源和去中心化的AI模型,以确保AI的发展服务于全人类的福祉,而非成为少数权力控制者的垄断工具。

让我们共同携手推动这一变革,共创一个开放、公平的人工智能新时代。