以太坊联合创始人 #VitalikButerin 对人工智能的快速发展表示严重担忧,强调超级智能 AI 系统带来的潜在风险。随着人工智能发展的加速,Buterin 强调实施强有力的保障措施以减轻灾难性后果的可能性的重要性。他在 1 月 5 日的一篇博客文章中分享了最新见解,强调采取主动措施来应对人工智能技术可能带来的危害的必要性。
在他的帖子中,Buterin 介绍了“人工智能的进化” (d/acc) 的概念,提倡将重点放在保护而不是破坏上的技术开发。他警告说,超级智能(超越人类智能的人工智能)可能会在未来几年内出现,这可能会威胁到人类的生存。“在通用人工智能 (AGI) 到来之前,我们可能还有三年的时间,而在超级智能到来之前,我们可能还有三年的时间。为了避免不可逆转的灾难,我们不仅必须加速积极的进步,还必须遏制消极的进步,”Buterin 写道。他的愿景包括创建优先考虑人类控制的去中心化人工智能系统,确保人工智能服务于人类而不是危害人类。
Buterin 还强调了人工智能军事应用的风险,他以乌克兰和加沙等近期全球冲突为例,说明人工智能在战争中的应用日益广泛。他警告称,军事部门不受人工智能监管可能会加剧这些危险,使军队成为潜在人工智能引发灾难的主要因素。为了应对这些风险,Buterin 提出了一项多管齐下的人工智能使用监管策略。这包括让用户对人工智能系统的使用方式负责,实施“监管”机制以暂时减缓人工智能的发展,并通过专门的芯片控制人工智能硬件。这些芯片需要每周获得多个国际组织的批准,其中至少有一个是非军事组织,以确保负责任的运行。
尽管布特林承认他提出的措施并非没有缺陷,但他将其视为必不可少的临时解决方案。通过应对加速有益的人工智能应用和限制有害应用的双重挑战,布特林强调了全球合作的紧迫性,以在超级智能的人工智能时代保障人类的未来。