OpenAI 的現任和前任員工對缺乏足夠監管的人工智能快速發展表示嚴重擔憂。這些內部人士強調了不受約束的人工智能發展可能帶來的危險。他們認爲,包括 OpenAI 在內的人工智能公司有強烈的經濟動機來避免有效的監管,這可能會導致重大風險。

這些員工的公開信強調了加強舉報人保護的必要性。他們認爲,如果沒有這樣的保護,員工就無法有效地追究公司的責任。這封信呼籲人工智能公司允許匿名舉報問題,並支持公開批評的文化。

Google 和 OpenAI 在人工智慧進步中的作用

OpenAI、Google和其他科技巨頭在人工智慧開發領域處於領先地位。

這場生成式人工智慧軍備競賽將產生可觀的收入。據預測,該市場將在十年內突破 1 兆美元。然而,這種快速發展也伴隨著巨大的風險。內部人士強調,這些公司擁有大量有關其技術能力的非公開資訊。他們也強調了對安全措施的擔憂,但他們沒有義務分享這些措施。

公開信強調,這些公司目前向政府揭露關鍵安全資訊的義務極小。他們也有最低限度的義務向公眾披露這些資訊。這種缺乏透明度引發了人們對人工智慧技術潛在濫用和相關風險的擔憂。

OpenAI 員工強調的危險

人工智慧技術的危險是多方面的。 OpenAI 和 Google DeepMind 的員工指出了從錯誤訊息傳播到可能失去對自主系統的控制等風險。如果管理不當,人工智慧技術還存在導致人類滅絕的極端風險。

這份題為「警告人工智慧的權利」的請願書呼籲人工智慧公司允許員工在內部和向公眾提出與風險相關的擔憂。簽署者認為,財務動機往往促使公司將產品開發置於安全之上,損害了監督流程。

一群現任和前任 OpenAI 員工(其中一些是匿名)與 Yoshua Bengio、Geoffrey Hinton 和 Stuart Russell 一起今天早上發布了一封題為“警告高級人工智慧的權利”的公開信。 pic.twitter.com/QnhbUg8WsU

— 安德魯‧柯蘭 (@AndrewCurran_) 2024 年 6 月 4 日

OpenAI 呼籲內部變革

員工敦促 OpenAI 和其他人工智慧公司實施允許匿名報告安全問題的系統。他們主張取消限制性保密協議,這些協議阻止員工說出潛在的危險。這些變化被認為對於培育更安全的人工智慧開發環境至關重要。

OpenAI 前員工 William Saunders 強調,那些對人工智慧系統潛在危險最了解的人往往因為擔心後果而無法分享他們的見解。這種保密性阻止了有關人工智慧風險的重要資訊被公眾和監管機構知道。

回應與爭議

OpenAI 已經認識到安全在人工智慧開發中的重要性。然而,最近的行動,例如解散 Superalignment 安全團隊,引發了人們對其對這項原則的承諾的懷疑。 OpenAI 此後成立了安全委員會來解決這些問題。

儘管做出了這些努力,圍繞 OpenAI 的管理和安全方法仍存在爭議。該公司面臨內部衝突,包括執行長薩姆·奧爾特曼(Sam Altman)因透明度問題而被罷免。這些事件凸顯了在快速人工智慧創新與必要的安全措施之間取得平衡所面臨的持續挑戰。

總而言之,雖然人工智慧技術有望取得重大進步,但 OpenAI 和Google員工提出的擔憂凸顯了迫切需要更好的監督和透明度。確保人工智慧系統的安全必須成為降低潛在風險和保障未來的首要任務。