以太坊聯合創始人 Vitalik Butertin 分享了他對“超級智能”人工智能(AI)的看法,稱其“具有風險”,以迴應 OpenAI 正在發生的領導層變動。

5 月 19 日,Cointelegraph 報道稱,OpenAI 前協調主管 Jan Leike 辭職,理由是他表示自己與管理層在公司核心優先事項上的分歧已達到“臨界點”。

Leike 聲稱,OpenAI 的“安全文化和流程已經退居次要地位,而閃亮的產品則成爲其關注的焦點”,許多人都將目光集中在通用人工智能 (AGI) 的發展上。

AGI 預計將成為一種等於或超越人類認知能力的人工智慧,這一想法已經開始令行業專家感到擔憂,他們表示,世界還沒有適當的能力來管理這種超級智慧人工智慧系統。

這種情緒似乎與 Buterin 的觀點一致。在 X 上的一篇貼文中,他分享了他目前對此主題的想法,強調我們不應該急於採取行動或抵制那些嘗試的人。

資料來源:維塔利克·布特林

Buterin 強調,在消費性硬體上運行的開放模型是未來的“對沖”,未來一小群公司將能夠讀取和調解大多數人類的思想。

“就厄運風險而言,這種模式比企業狂妄和軍隊要低得多。”

這是他上週第二次就人工智慧及其不斷增強的功能發表評論。

5月16日,他認為OpenAI的GPT-4模型已經超越了圖靈測試,圖靈測試決定了AI模型的「人性」。他引用了一項新的研究,該研究聲稱大多數人在與機器交談時無法破解。

相關:微軟新的「黑鏡」召回功能會記錄你所做的一切

然而,Buterin 並不是第一個表達這種擔憂的人。英國政府最近也審查了大型科技公司對人工智慧領域的日益參與,提出了與競爭和市場主導地位相關的問題。

像 6079 AI 這樣的組織已經在網路上興起,倡導去中心化人工智慧,以確保它保持更加民主化,而不是被大型科技公司所主導。

資料來源:6079.ai

此前,OpenAI 領導團隊的另一位高級成員於 5 月 14 日離職,聯合創始人兼首席科學家 Ilya Sutskever 宣布辭職。

Sutskever 並沒有提及任何對 AGI 的擔憂。然而,在 X 的貼文中,他表示相信 OpenAI 將開發出「安全且有益」的 AGI。

雜誌:「人工智慧互相攻擊」以防止人工智慧末日:科幻作家大衛布林