Vitalik Buterin敲响警钟:超智能AI的迫在眉睫的威胁
想象一个人工智能超越人类智慧的世界,导致灾难性后果,包括人类灭绝的可能性。这不是科幻电影的场景;这是以太坊联合创始人Vitalik Buterin提出的真实担忧。随着AI技术的快速发展,Buterin敦促世界采取行动,开发出强有力的防御机制,以应对与超智能AI相关的风险。
不受控制的AI增长的风险
Buterin的警告正值AI安全关注迅速增长之时。在最近的一篇博客文章中,他概述了他的“d/acc或防御性加速”概念,强调技术的开发需要考虑防御,而不仅仅是关注进步。这并不是Buterin第一次谈论AI风险;在2023年,他强调了AI可能导致人类灭绝的潜力。
通向超智能的三年时间表
Buterin最新的警告比以往任何时候都更紧迫,因为他认为超智能可能就在几年之内。“我们似乎有三年的时间表直到AGI,再过三年进入超智能,”他写道。这个时间表强调了立即采取行动以减轻与AI相关风险的必要性。
去中心化的AI系统:一种潜在解决方案
为了最小化灾难性后果的威胁,Buterin倡导创建与人类决策紧密相关的去中心化AI系统。通过确保AI仍然是人类手中的工具,我们可以降低灾难性后果的风险。
军队在AI监管中的角色
Buterin还强调了与AI军事使用相关的潜在风险,这在全球范围内正在上升。他认为,任何AI监管可能会免除军队,使其成为一个重大威胁。这引发了关于在AI的发展和使用中需要国际合作和监管的重要问题。
规范AI的三步计划
Buterin提出了一个三步计划来规范AI使用:
1. 责任:让用户对AI使用的后果负责。通过追究用户的责任,我们可以鼓励更负责任的AI开发和部署。 2. 软暂停按钮:实施“软暂停”按钮,允许AI监管减缓潜在危险进展的速度。这可能涉及在1-2年内将全球可用计算能力减少90-99%,以为人类准备争取时间。 3. 国际控制:通过在AI硬件上配备一个芯片,要求每周获得国际机构的三份签名,包括至少一个非军事相关机构,来控制AI硬件。
临时应急措施,而非永久解决方案
Buterin承认他的策略存在漏洞,仅是临时应急措施。然而,他强调了立即采取行动以减轻与AI相关风险的必要性。
随着世界迅速迈向一个AI超越人类智慧的未来,认真对待Buterin的警告至关重要。我们能否开发出强有力的防御机制来应对与超智能AI相关的风险,还是会屈服于不受控制的AI增长带来的危险?时间在流逝。
来源:Beincrypto.com
文章《Vitalik Buterin的AI监管计划:责任与控制》首次出现在CoinBuzzFeed上。