“预测未来的最佳方法就是发明它。” 

人工智慧在过去十年中经历了爆炸性增长,带来了行业范式转变并创新了日常生活。但这一进步伴随著一个显著的问题:太多的控制权集中在少数主要参与者手中——其中包括Google、微软和 OpenAI。

开发任何新的人工智慧模型并训练它们的私人资料的可用性是最大的障碍。 

正如阿克顿勋爵曾经说过的那样,“权力容易腐败,绝对权力绝对腐败。”在当今时代,这个想法对人工智慧来说从未如此紧迫。

少数人对私人持有的数据进行 AI 模型训练的严格控制带来了重大弊端。去中心化 AI 提供了一种前进的方向,因为这种方法为更多样化的创新创造了空间,同时保持了安全性和隐私性。

本文将探讨去中心化人工智能的新兴世界、推动其发展的技术以及 Data3 网络如何将这一愿景变为现实。

集中式人工智能的问题:权力与陷阱

2023 年,全球人工智能市场价值为 6382.3 亿美元,其中大部分份额牢牢掌握在大型科技公司手中,形成了一个封闭的生态系统。这些组织创造了一个只能被描述为“围墙花园”的环境,只有少数人才能访问顶级数据和尖端基础设施。

DroomDroom 关于人工智能在加密行业的变革潜力的文章重点关注市场预测、安全性和智能合约增强。

著名人工智能研究员本·戈策尔 (Ben Goertzel) 警告称,“人工智能造福人类的潜力不应受到控制关键资源的垄断的限制。”

OpenAI 的 GPT-4 和谷歌的 PaLM 等集中式 AI 模型的功能可能令人印象深刻,但它们强调了可能阻碍 AI 未来的几个关键限制。

1. 数据垄断与隐私问题

也许最大的障碍是数据集中化。令人震惊的是,全球 90% 的数据由企业私人持有,这使得小型开发者和组织无法获取构建高级 AI 所需的数据。

2018 年至 2024 年全球数据泄露的平均总成本。

与此同时,隐私问题也日益突出。由于需要收集大量数据集来训练人工智能模型,92% 的美国人对自己个人数据的使用方式表示不安也就不足为奇了。数据泄露的成本(目前平均每起事件 488 万美元)只会加剧人们对集中式系统的不信任。

2. 偏见和道德困境

集中式人工智能系统还继承了它们所依赖的数据集的偏见。在医疗保健领域,人工智能模型表现出种族偏见——导致对少数族裔人群的诊断不准确。

如果这些数据的来源和使用方式不透明,那么对于解决这些偏见而言,仍然是一个巨大的挑战。

这不仅破坏了信任,而且威胁到直接影响人类生活的行业中人工智能的道德基础。

3. 公共数据的局限性

公共数据集的局限性也变得越来越明显。随着公共数据的过度使用和陈旧,人工智能模型的质量可能会下降。

使用合成数据作为替代可能会导致“模型崩溃”,即人工智能系统难以反映现实世界的情况。结果如何?模型可能在纸面上看起来很先进,但在测试时却无法提供准确的结果。

正如那句老话所说,“垃圾进,垃圾出”。集中式人工智能的局限性显而易见——当高质量数据的访问受到限制时,所开发的人工智能的质量也会受到限制。

理解去中心化人工智能

去中心化人工智能通过在广泛的网络上分配数据和处理能力,彻底颠覆了传统模式。

去中心化人工智能不再依赖少数中心化实体,而是利用来自可靠私人来源的数据集来确保真实性、隐私性和安全性。数据集不会离开数据所有者的服务器。

这些数据集上仅部署数百到数百万甚至数十亿个参数,然后将结果发送回AI模型进行训练。

马歇尔·麦克卢汉曾经说过:“我们塑造我们的工具,而后我们的工具塑造我们。”这完美地概括了我们现在看到的去中心化人工智能的转变。

https://x.com/Data3Network/status/1842151253951807504

联合学习,或者更流行的术语“去中心化 AI”,可确保数据保留在原始位置(本地设备或组织内),同时仍有助于全球 AI 模型的开发。这意味着医疗保健、金融和农业等行业可以在不放弃敏感数据控制权的情况下为 AI 开发做出贡献。无需绕过任何法律,而敏感数据通常需要绕过法律。

推动去中心化的技术:联邦学习和区块链

两项杰出的技术正在推动人工智能向去中心化方向发展——联邦学习和区块链。

了解人工智能在区块链和加密中的变革性融合,揭示未来的可能性和当前的应用。

他们共同规划了更加安全、透明和包容的人工智能开发进程。

联邦学习:隐私优先的人工智能训练

联合学习通过将敏感数据保存在本地设备上,为 AI 模型训练提供了一种新方法。AI 模型不是在集中式中心收集大量原始数据,而是在源头进行训练。

谷歌首席执行官桑达尔·皮查伊 (Sundar Pichai) 曾表示:“人工智能的未来不仅在于更智能的模型,还在于尊重用户隐私和安全的模型。”

该技术应用于医疗保健等领域,在这些领域保护患者数据至关重要,而国防和金融等行业则以保密为关键。

区块链:建立信任和透明度

区块链通过增加一层信任和透明度来补充联邦学习。人工智能生态系统中的每一次互动都经过验证,并被不可变地存储在区块链上,确保数据不会被篡改。

这也为规模较小的参与者打开了人工智能开发的大门。通过向分散项目贡献数据或计算资源,个人和小型企业可以成为人工智能发展的积极参与者。

例如,Data3 Network 在其 Data3 Marketplace 中使用区块链技术,为开发人员和数据贡献者之间提供安全、透明和可追溯的交互。

在 DroomDroom 的这篇文章中深入探讨 AI 如何通过自动化、个性化和安全性增强 Web3,为去中心化的数字生态系统奠定基础。

去中心化人工智能的实际应用

Data3 Network 是去中心化 AI 如何蓬勃发展的典型例子。通过其 Data3 市场,它将 AI 开发者和数据所有者连接到一个安全、透明的生态系统中。

万维网的创建者蒂姆·伯纳斯·李曾说过一句名言:“数据是宝贵的东西,它将比系统本身存在的时间更长。”Data3 体现了这一精神,确保数据的私密性、安全性和合乎道德的来源。

Data3 Marketplace 允许开发人员利用安全、私密且符合道德规范的数据来训练高级 AI 模型。该平台支持医疗保健、农业和金融等一系列行业,使他们能够访问高质量的数据,同时遵守 GDPR 等隐私法。

Data3 的联邦学习架构确保数据永远不会离开其原始位置,从而减轻隐私风险,同时仍为全球人工智能创新做出贡献。

除此之外,Data3 的去中心化云存储通过将数据分散到多个节点来消除单点故障,从而增加了安全性的价值。该平台使中小企业 (SME) 能够加入 AI 改革,同时又不损害对全球数据隐私法的遵守。

未来是去中心化的

人工智能的未来正走向去中心化——这一转变已经改变了游戏规则。中心化系统垄断数据并存在固有的隐私问题,正在让位于一种更具包容性的方法。

建立在联邦学习和区块链基础上的去中心化模型正在为以前不可能实现的创新打开大门。

去中心化人工智能正在塑造未来,使人工智能发展更加民主、可及和安全。

Data3 Network 等平台正在引领这一转变,并证明去中心化不仅可以降低中心化人工智能的风险,而且还为跨行业的合作和创新开辟了大量新的可能性。

所有人的目光都集中在 Data3 Network 上,因为它计划于 2024 年 10 月 18 日星期五推出。成为这一开创性活动的一部分,立即注册并加入革命。