OpenAI 和 Google DeepMind 的幾位現任和前任員工指責他們的公司隱藏了可能引發人類滅絕的人工智慧風險。在一封公開信中,工人們聲稱人工智慧公司將利潤放在第一位,同時避免「有效的[政府]監督」。

另請閱讀:出於安全考慮,OpenAI 推出了 GPT-4 後繼產品

這封公開信由 OpenAI 的 11 名前員工簽署,其中兩名來自 Google DeepMind,並得到了「AI 教父」、前 Google 員工 Geoffrey Hinton 的認可。報告稱,利潤動機和監管漏洞使公司能夠掩蓋先進人工智慧帶來的威脅。

人工智能可能導致“人類滅絕”

據信中所述,OpenAI 和 Gemini 的創建者 Google DeepMind 等人工智能公司尚未公開分享有關其系統保障措施不足和風險水平的信息,因爲他們沒有被要求這樣做。

如果沒有監管監督,人工智能程序可能會對人類造成重大傷害。員工警告說:

“這些風險包括現有的不平等現象進一步加劇……以及失去對自主人工智能系統的控制,可能導致人類滅絕。”

正如這封信的簽名者所指出的,人工智能公司本身也承認了這些風險。2023 年 5 月,OpenAI、Anthropic 和 Google DeepMind 的首席執行官共同簽署了一封由人工智能安全中心撰寫的公開信。信中簡單地寫道:“減輕人工智能滅絕的風險應該成爲全球優先事項,與其他社會規模的風險(如流行病和核戰爭)一樣。”

人工智能公司因將新產品和利潤置於安全和保障之上而受到越來越多的審查。ChatGPT 製造商 OpenAI 注意到了信中提出的擔憂,並表示正在努力開發安全的人工智能。

OpenAI 發言人林賽·赫爾德 (Lindsey Held) 向《紐約時報》表示:“我們爲提供最強大、最安全的人工智能系統的記錄感到自豪,並相信我們應對風險的科學方法。”

“我們同意,鑑於這項技術的重要性,嚴謹的辯論至關重要,我們將繼續與世界各國政府、民間社會和其他社區進行接觸。”

舉報人擔心遭到報復

OpenAI 和谷歌的前員工表示,他們希望在監管機構制定法律強制人工智能開發商公開披露更多有關其程序的信息的同時,發揮監督作用。

然而,保密協議和僱主報復的可能性使工人不願公開表達他們的擔憂。信中寫道:

“鑑於整個行業都曾發生過此類案件,我們中的一些人有理由擔心各種形式的報復。我們並不是第一個遇到或談論這些問題的人。”

在美國,舉報人受到法律保護,但那些談論人工智能危險的人卻不受保護,因爲這項技術尚未受到監管。

另請閱讀:歐盟數據監管機構稱,ChatGPT 仍在傳播虛假信息

信中呼籲人工智能公司提供可驗證的匿名反饋,支持公開批評的文化,不要對舉報人進行報復。

人工智能研究員 Lance B. Eliot 表示,公司對批評採取“胡蘿蔔加大棒”的政策。那些不敢直言不諱的員工會得到晉升和加薪的獎勵。

另一方面,舉報人和批評者將失去股票期權,並可能被迫離開公司,並被人工智能領導社區默默列入黑名單。

Jeffrey Gogo 撰寫的 Cryptopolitan 報告