原文作者:王超

原文来源:Empower Labs

3月23日,饱受争议的Stability AI CEO Emad Mostaque 宣布辞职,未来将全身心投入去中心化AI事业。这一消息引起了市场上不小的震动。

Stability.AI一方面曾独自扛起开源AI的旗帜,为开源AI做出了重要的贡献;另一方面又不断被指责将其他研究团队的成果揽在自己头上。而CEO Emad虚假学历的曝光和在社交媒体上频繁的大话令其声誉进一步受损。曾经拥有闪耀的投资人支持和巨额融资,Stability.AI却早已深陷财务困境,命悬一线。

辞职后,Emad透露自己仍持有Stability.AI的大部分股份,足以控制董事会。他不是被迫辞职,而是认为在AI领域,权力的高度集中对每个人都是有害的,因此选择辞职以促进Stability.AI的改变。由于Emad有着不光彩的吹牛史,大多数人都认为事情并不仅如此简单。不过比起Stability.AI,我更想探讨Emad将要投身的去中心化AI。

几周前,我与Emad一同参与了一场围绕去中心化AI的讨论。之后我又整理了他过去关于这一议题的诸多发言,粗略的梳理出了他的视角。

谁控制了模型,谁就控制了思想

如果人类的行动是由操作系统驱动,AI正快速成为这个操作系统的外部核心组件。因为人类已经逐渐适应将思考负担外包给AI,这个技术构成了我们思考方式的一部分。然而AI所带来的便利和赋能,也伴随着显著的风险——谁控制了AI模型,谁就一定程度上控制了这个世界的思想。

如果大众对这些智能工具的工作原理和默认设置缺乏认识,我们的决策和观点可能会悄无声息地受到影响。AI模型的控制者可以通过设定特定默认选项,潜移默化地引导人们的选择、观点及行为。AI作为下一个时代的基础设施,如果只被少数商业团体所控制,后果可能是灾难性的。这就是Emad所强调的,去中心化AI的重要性和迫切性所在。

每个国家都需要有自己的模型

当OpenAI投入巨大的精力在超级对齐(Super Alignment)项目时,谁来负责OpenAI本身和全世界每个国家,每个行业,每种文化的对齐?

没有人。

OpenAI的Super Alignment在基础安全和人类共同的伦理道德方面做出了很大的努力,但面对不同国家和文化的多样性,这样的努力是否足够? 不同民族和文化往往有着与硅谷精英迥异的价值观,而这些多元价值观能否公平地反映到AI模型中?当像肯尼亚这样的国家,他们的下一代学生开始大规模使用硅谷AI学习时,他们独特的国家文化特色是否会逐渐消失?

答案很不乐观。因此Emad认为每个国家、每个行业、每种文化,都应该拥有代表自己特色的AI模型。这些模型应该深深扎根于当地,充分吸收和体现这个国家、行业和文化的集体智慧。这个概念大家应该也不陌生,因为两个月前英伟达也在各种场合讲了主权AI的概念,本质上是一个东西。不过Emad早在一两年前就开始在各种场合来讲这个事,还是比英伟达早了很多。

这个世界上的绝大部分国家根本没有能力创建自己的AI模型,而这恰恰就是Emad瞄准的市场。他希望通过创建一个底层堆栈来支持每个国家、民族、行业创建的AI模型。而在堆栈上,则希望用去中心化集体协作的方式来实现模型的发展。

Emad曾表示可能会启动/孵化一系列的公司,每个公司会有不同的专业人才聚焦在不同的关键领域,如教育,医疗,金融,当然也包括针对不同国家的AI模型。而作为去中心化AI的实践,这些公司更多扮演的是启动器的角色。通过提供基础模型、标准化的框架,来引入社区人才参与贡献。如果能吸引到一个国家的大量优秀人才来参与贡献,这些集体智慧最终会汇聚为一个优秀的国家模型。

核心是数据

用一个简单的比喻,AI模型的配方就是算法和数据,然后用一些算力把它们搅拌在一起,数据越多,需要搅动这些数据的算力越大。目前市场上的绝大部分团队都在追求更好的模型算法,拿到更多的数据,然后配以更大的算力。但实践已经证明,如果数据质量高,用更少的数据量同样能取得优秀的效果。换句话说,人们在通过堆算力给低质量数据擦屁股。

这构成了Emad推崇的去中心化AI体系的一个优点。他相信,如果能建立一个结构来引导一个国家的优秀人才共同参与,就能集结出高质量的国家数据集,同时这些数据可以做到可验证、所有权清晰,并可以由此设计围绕数据的激励模式。

通过这种方式,我们能收集到过去根本接触不到的数据。这些数据不仅质量更高,能更真实和公正地代表大众的声音和需求。

小模型集群 vs 单一大模型

在AI领域,Scaling laws 几乎成了一条铁律,无论我们是否选择追求它,都无法回避它。

很显然,采用去中心化的方式来组织资源,再通过Scalling Law实现通用人工智能(AGI)短期内并不现实。在相当长的一段时间内,以社区为导向的AI模型也难以与像OpenAI这样的巨头竞争,争夺最强大模型的桂冠。

然而,追求AGI和创造广泛适用的AI是两回事。随着技术的不断进步,社区驱动的中小型模型正在迅速提升能力。预计一两年之内,中小模型就足以胜任大部分日常任务。也许它不是最强,但它足够实用,成本也足够低,可以打开广阔的应用场景。就像我们买的大部分网购并不需要用顺丰隔日达一样,模型的混合使用未来会逐渐主流化。

这就带来极为重要的一个变化,当集体智慧驱动的模型被广泛应用时,就大幅减少了单一大模型由单一机构控制带来的潜在风险。如果大型模型的数据出现污染,这些基于集体智慧的模型也能轻松扮演校准器的角色,进行必要的纠正。这不仅仅是关于实用性和成本节约,更是集体智慧与AI上帝之间的博弈。

从技术角度看,小型模型也并不完全是劣势。规模小使得他们更容易针对垂直领域进行额外的训练。在这些领域内,尽管综合能力可能不及大型模型,但它们能作为专家级工具发挥出色的性能。而一个由众多专家模型构成的小模型集群,在与单一大模型的竞争中还真不一定会输。

更加重要的是模型小能够有效促进部署的去中心化。在谈到去中心化时,我们不仅指的是模型的建设和数据来源的去中心化,还包括治理的去中心化以及部署的去中心化。如果开源模型能很方便的部署在个人的笔记本电脑甚至是手机上,这会构成AI平权。即使是中心化的服务提供者如果关闭了服务,用户仍然可以依靠本地AI继续操作。让人们可以不受限的广泛使用AI也是去中心化AI的重要目标。

AI + Web3 – 骗子还是未来

毫无疑问,Emad正在积极推动的去中心化AI计划与加密技术密切相关。他已经表明要设计一种Web3协议,以整合并实现他的这些构想。这是因为AI领域目前缺乏的几个关键元素——数据的可验证性、数据所有权、大规模协调与激励机制、以及集体治理能力——正是Web3技术所擅长的领域。

在这里我想着重提一下治理。因为从来没有一种技术像今天的人工智能这样强大,并且即将广泛且深入地影响世界的各个角落。谁应该决定这项技术的未来方向?谁能有效地掌控它?由少数公司如OpenAI的董事会来治理人工智能一定不是最有效的方案。简单地由监管层对AI模型设置一些硬枷锁也不一定能有效应对挑战。集体治理可能才是真正的解决之道。

在Web3领域,集体治理的实验正兴盛发展,覆盖了数据治理、应用治理、网络治理以及组织治理等多个层面。虽然大部分尝试仍处于探索阶段,也经历了多次失败,但这里是人类治理发展的最前沿。

在过去的五年中,加密领域里,特别是围绕去中心化自治组织(DAO),人们几乎尝试了人类历史上所有的治理模式。OpenAI采用的由非盈利基金会控制盈利公司的创新结构,在DAO里早已经被广泛实践过。在我看来,Web3世界的人们在过去几年就像是打了一场治理速通游戏。人们在短短几年内重新演绎了人类几千年的治理历程。

一个最常见的批评是大部分Web3治理不过是把过去人类已有的治理模式复制了一遍然后加上了个链上投票。不过历史已经告诉我们,当拥有如此快的成长速度和很高的人才密度的时候,很快就会进化出全新的事物。

一个不那么恰当的例子是互联网广告。记得互联网刚刚兴起的那几年,打开新闻网站,一个巨大的全屏广告会突然出现然后缓慢消退,而网页上布满了密密麻麻的广告块,这成了早期互联网的标志性记忆。因为那时候人们并不知道什么是更加有效的互联网推广方式,所以干脆就是把传统媒体上的广告方式简单搬到了互联网上。然而随着场景的进步,随着人们对互联网技术以及文化理解的加深,很快就进化出了人类历史上从未有过的高效推广模式,并迅速在互联网上淘汰掉了传统广告。

在我看来对技术的治理也会走过类似互联网广告的路径。区块链技术带来了大幅加强的协调和治理能力,人类历史上从未有过的集体治理方案将从中生长出来,对此我充满了信心。

写在最后

放在当下去预测AI时代的未来以及审视Emad的全部构想,很难得出一个结论。显然,他的计划在许多层面面临巨大挑战。再加上Emad过去经常夸大其词,区分他的话哪些可以当真,哪些只是随口说说也不太容易。

然而探讨AI的权力结构是一个处于早期、又极其复杂且重要的议题。Emad和其他追求去中心化AI的同行们,他们的思考,他们所做的尝试,虽然可能还远未接近最终答案,但值得给予足够的尊重和关注。这些探索虽然步履艰难,却是开创未来的勇敢尝试。这些努力,无论结果如何,都将成为历史史诗中的一章。

也许有一天,这个世界会感谢Emad们。