总而言之:

  • 人工智能科学家警告称,如果人类失去对人工智能的控制,可能会带来灾难性的后果

  • 呼吁建立全球监督体系和应急计划以防范人工智能风险

  • 提出了三个关键流程:应急准备、安全保障和独立研究

  • 来自各国的30多位专家签署了声明

  • 超级大国之间在人工智能威胁方面缺乏科学交流引发担忧

全球各地的人工智能(AI)专家对先进人工智能系统的潜在风险发出了警告。

在2024年9月16日发布的声明中,来自美国、加拿大、中国和英国等国家的30多名科学家呼吁建立一个全球监督体系,以防止人类如果失去对人工智慧的控制。

该声明以威尼斯人工智慧安全国际对话的调查结果为基础,强调人工智慧发展中国际合作和治理的必要性。

科学家认为,人工智慧安全应被视为全球公共利益,需要集体努力解决潜在风险。

声明中强调的主要担忧之一是人类可能会失去对先进人工智慧系统或其恶意使用的控制。专家警告说,这种情况可能会给人类带来可怕的后果。

他们指出,控制和保护高度先进的人工智慧所需的科学尚未开发出来,强调了解决这些问题的紧迫性。

为了应对这些挑战,科学家提出了三个关键过程。

  • 首先,他们呼吁建立紧急准备协议和机构。这将涉及每个国家的发展当局来检测和应对人工智慧事件和灾难性风险。然后,这些国内当局将共同努力,针对严重的人工智慧相关事件制定全球紧急应变计划。

  • 第二个建议流程是实施安全保证架构。这将要求人工智慧开发人员在部署功能超过指定阈值的模型之前提供高可信度的安全案例。该框架还将包括部署后监测和独立审计,以确保持续的安全。

  • 最后,专家们提倡独立的全球人工智慧安全和验证研究。这项研究将重点放在开发技术来严格验证人工智慧开发人员和潜在其他国家提出的安全声明。为了确保独立性,该研究将在全球范围内进行,并由许多政府和慈善家资助。

这项声明发表之际,超级大国之间的科学交流正在萎缩,美国和中国之间的不信任正在加剧。科学家认为,缺乏合作使得对人工智慧威胁达成共识变得更加困难,进一步强调了全球对话与合作的必要性。

2024 年 9 月初,美国、欧盟和英国签署了世界上第一个具有法律约束力的国际人工智慧条约。该协议优先考虑人工智慧监管中的人权和问责制。然而,一些科技公司和高层表示担心过度监管可能会扼杀创新,尤其是在欧盟。

签署该声明的人工智慧专家群体包括来自领先人工智慧机构和大学的研究人员,以及多位被认为相当于电脑界诺贝尔奖的图灵奖得主。

他们的集体专业知识对声明中提出的担忧和建议给予了重要重视。

《保护人类免受人工智慧侵害:专家呼吁全球监督以防止潜在的人工智慧灾难》一文首先出现在 Blockonomi 上。