ChatGPT 背后的公司 OpenAI 最近成立了一个由高级领导组成的人工智能安全委员会,负责监督与安全和隐私相关的关键决策。然而,由于缺乏独立专家的参与,这一决定引发了人们对人工智能伦理的担忧。

该委员会将由首席执行官 Sam Altman 和董事会成员 Bret Taylor、Adam D'Angelo、Nicole Seligman 以及专家 Jakub Pachocki、Aleksander Madry、Lilian Weng、Matt Knight 和 John Schulman 领导。该委员会将在未来 90 天内评估 OpenAI 的流程和安全措施。

尽管OpenAI声称该委员会的成立是为了加强人工智慧安全,但缺乏独立的外部专家让许多人感到担忧。特别是一些人工智慧伦理专家批评OpenAI将产品开发置于安全之上,导致许多高级人工智慧安全员工最近离开公司。

OpenAI 治理团队前成员 Daniel Kokotajlo 和 OpenAI 联合创始人兼前首席科学官 Ilya Sutskever 在 4 月和 5 月离开公司,因为与 Altman 在产品开发优先事项而非人工智慧安全研究方面存在分歧。 

前 DeepMind 研究员、ChatGPT 及其前身 OpenAI 的 InstructGPT 开发人员 Jan Leike 也已辞职,因为他认为 OpenAI 在解决 All AI 的隐私和安全问题方面并未走上正轨。人工智慧政策研究员格雷琴·克鲁格(Gretchen Krueger)也离职,并呼吁该公司提高问责制和透明度。

除了呼吁对人工智慧进行监管之外,OpenAI 还透过聘请专家并花费数十万美元在美国进行游说活动来努力制定这些法规。最近,美国国土安全部宣布 Altman 将成为新成立的人工智慧安全委员会的成员,该委员会为在美国关键基础设施中开发和部署安全可靠的人工智慧提供建议。

OpenAI 现在试图透过宣布将保留一些独立的安全和技术专家来支持委员会来缓解担忧。 不过,该公司尚未公布具体名单,也未公布对委员会的权力和影响力。

OpenAI 对人工智慧安全的自查引发了许多关于人工智慧开发公司的道德和责任的争议。 专家呼吁在人工智慧开发中进行独立监督并提高透明度,以确保人类的安全和道德。