在人工智慧(AI)快速发展的背景下,GoogleDeepMind的研究提出了实现人工智慧(ASI)的重要因素。

近年来,平台模型取得了长足的进步,并广泛应用于许多应用中。然而,创建能够自我改进并不断产生新资讯的开创性人工智慧(AI)系统仍然是一项重大挑战。 Edward Hughes 及其合著者的报告展示了开放性本质如何影响 ASI 的发展,以及如何在当今的人工智慧系统中实现这种本质。

开放性的正式定义是基于两个主要面向:新颖性和学习能力。如果一个系统不断产生具有学习价值以提高观察者的理解和技能的新数据,则该系统被认为是开放的。

本文提供了许多目前人工智慧系统的具体范例来说明这个概念。 AlphaGo 是狭义开放系统的典型例子。 AlphaGo 透过开发新的、不可预测的策略超越了世界顶级围棋选手。然而,AlphaGo 的开放性仅限于围棋游戏。

另一个例子是 AdA 系统,它是 3D XLand2 环境中的学习代理,具有 250 亿个任务变更。 AdA能够累积复杂多样的技能,但经过一段时间的训练后,其新鲜感往往会消失。这表明,要保持开放,需要更丰富的环境和更强大的参与者。

本文也讨论了诸如 POET(配对开放式开拓者)之类的演化系统,其中智能体和环境共同演化。 POET 诠释了「垫脚石」现象,即智能体可以透过逐步进化来应对极具挑战性的环境。然而,当环境不够复杂而无法保持开放时,这些系统也面临著限制。

此外,文章也指出,目前的平台模型仅在固定资料集上进行训练时不符合开放性标准。这些模型在广泛的领域中可能看起来是开放式的,但当范围缩小时,它们就会揭示出生成新的精确解决方案的能力的限制。

作者提出了将开放性与平台模型结合的四个主要研究方向:强化学习(RL)、自我改进、任务生成和演化演算法。强化学习在狭窄的领域取得了巨大的成功,像 Voyager 这样的模型已经显示出透过不断改进任务建立技能库来自我改进的潜力。演化演算法也为创建开放系统提供了一条有希望的途径,能够透过文字实现有意义的突变。

本文的一个重要部分是讨论开发开放系统时的安全和责任问题。开放性带来了许多安全风险,包括对目标的误解和对规范的滥用。确保开放系统可以由人来解释和控制非常重要。这要求系统能够以清晰易懂的方式解释人类并与人类互动。

在报告中,作者断言当前的平台模型已经取得了重大进展,但要迈向 ASI,有必要开发开放系统。这些系统可以为社会带来巨大的好处,包括加速科学技术突破、增强人类创造力以及扩展多个领域的常识。

谷歌DeepMind的论文开启了人工智慧研究的新方向,强调了开放性对于实现人工超级智慧的重要性。负责任地开发这些系统将有助于确保它们为社会带来最大利益,同时最大限度地减少潜在风险。