如果人類失去對人工智能的控制,需要制定應急計劃

9 月 16 日,由頂尖人工智能科學家組成的聯盟在一份聲明中呼籲建立一個全球監督系統,以減輕人工智能系統超出人類控制範圍而產生“災難性後果”的風險。

他們表示擔心,如果管理不善,他們參與創造的技術可能會帶來重大威脅。

聲明內容如下:

“失去人類控制或惡意使用這些人工智能系統可能會給全人類帶來災難性的後果。不幸的是,我們尚未開發出必要的科學來控制和保障這種先進智能的使用。”

⚠️ 科學家警告失去對人工智能的控制,呼籲制定全球計劃以防止災難性風險。🌍 他們敦促做好應急準備、建立人工智能安全系統和獨立研究。美國、歐盟、英國簽署了第一項人工智能監管條約。🤖⚖️ pic.twitter.com/TUGpIQbzgA

— MINE.exchange (@mineexchange_) 2024 年 9 月 17 日

科學家們強調,國家當局需要具備發現和應對人工智能相關事件和風險的能力。

他們還主張制定“全球應急計劃”,以防止出現具有潛在全球災難風險的人工智能模型。

正如他們所說:

“從長遠來看,各國應該建立國際治理機制,以防止可能帶來全球災難風險的模式的發展。”

人工智能安全是全球公共產品

該聲明以 9 月初在威尼斯舉行的人工智能安全國際對話的討論爲基礎,該對話是美國非營利性研究機構安全人工智能論壇組織的第三次活動。

約翰霍普金斯大學的 Gillian Hadfield 教授在 X(以前稱爲 Twitter)的一篇文章中強調了緊迫性:

“我們不必就災難性人工智能事件發生的概率達成一致,但我們應該在發生需要協調應對的國際人工智能事件時制定一些全球協議。”

我們不必就災難性人工智能事件的發生概率達成一致,但可以同意,我們應該制定一些全球協議,以應對需要協調應對的國際人工智能事件。更多信息請訪問:https://t.co/FrKyLXJLYf

- Gillian Hadfield (@ghadfield) 2024 年 9 月 16 日

聲明強調,人工智能安全是全球公共產品,需要國際合作與治理:

“人工智能帶來的這些風險具有全球性,因此有必要將人工智能安全視爲全球公共利益,並努力實現對這些風險的全球治理。我們必須共同做好準備,避免隨時可能出現的災難性風險。”

人工智能開發人員概述了三個關鍵流程:

該聲明得到來自美國、加拿大、中國、英國、新加坡等國家的30多位簽署人支持,其中包括來自頂尖人工智能研究機構和大學的專家以及多位圖靈獎獲得者。

科學家們指出,超級大國之間的科學裂痕不斷擴大,以及美國和中國之間的不信任不斷增加,使得在人工智能風險方面達成共識變得更加困難。