以太坊联合创始人维塔利克·布特林对人工智能(AI)快速发展表示关切,警告说超级智能人工智能可能比预期更早出现。布特林强调了制定应对潜在风险策略的紧迫性,专注于他所称的"防御性加速",以确保人工智能技术的负责任使用。
在1月5日的博客文章中,布特林概述了他为防止人工智能有害进展而提出的建议。他主张去中心化的人工智能系统应与人类决策紧密相连,旨在降低误用的风险,特别是军队的误用。他强调了人工智能在战争中日益增长的全球趋势,引用了乌克兰和加沙的部署例子,并警告说,人工智能法规中的军方豁免可能会带来重大威胁。
布特林估计,人工通用智能(AGI)可能仅在三年内实现,超级智能可能在此之后三年出现。他强调,人类不能仅仅加速有益的进展,还必须积极减缓有害的开发。他描述了一个未经控制的人工智能可能导致灾难性结果的情景,包括人类灭绝的可能性。
为了应对这些风险,布特林提出了几项措施。首先,他呼吁建立责任规则,以追究用户对人工智能系统使用方式的责任。尽管承认将人工智能的开发与其使用联系起来的复杂性,他认为最终决定技术应用的是最终用户。
如果责任措施被证明不足,布特林提议"软暂停"机制。这将暂时减缓危险人工智能系统的开发,可能通过在关键时期将全球计算能力减少90-99%持续一到两年。这将给人类时间准备应对新出现的挑战。
另一个关键建议涉及控制人工智能硬件。布特林提议在人工智能系统中集成芯片,这些芯片需要每周获得三个国际机构的授权,其中至少一个机构非军方。此措施旨在维护全球监督并防止误用。
尽管提出了这些想法,布特林承认他的策略是暂时的和不完善的。然而,他坚持认为,必须立即采取行动以管理快速发展的人工智能技术所带来的风险。
布特林的警告恰逢对人工智能安全日益关注的时刻,突显了全球合作以应对这些紧迫问题的必要性。通过确保人工智能保持在人的控制之下,可以最大限度地减少灾难性结果的风险,但实现这一目标需要集体努力和警惕。