據華爾街日報,負責開發 ChatGPT 的公司 OpenAI 近期遭遇了一次重大安全漏洞,這引發了對潛在國家安全風險的擔憂。該事件發生於去年年初,暴露了研究人員和員工之間的內部討論,但未損害 OpenAI 系統的核心代碼。儘管事件嚴重,OpenAI 選擇不公開披露此事,這一決定導致內部和外部的審查。

OpenAI 內部通訊遭到破壞

2023 年初,一名駭客入侵了 OpenAI 的內部消息系統,提取了有關公司 AI 技術的詳細資訊。根據兩名知情人士透露,駭客造訪了一個員工討論最新 AI 進展的線上論壇,但未侵入存放核心技術的系統。

OpenAI 執行層選擇不向公眾揭露

據消息人士,OpenAI 的高層在 2023 年 4 月於公司舊金山總部召開的全員大會上向員工通報了此事,董事會也都知情。儘管遭到入侵,執行層選擇不向公眾通報,理由是沒有客戶或合作夥伴的資訊被洩露。他們評估該駭客是一個與外國政府無關的個人,並且沒有向包括聯邦調查局在內的執法機構報告此事。

外國間諜活動的擔憂加劇

此次漏洞事件加劇了 OpenAI 員工對外國對手 (尤其是中國) 可能竊取 AI 技術並威脅美國國家安全的擔憂。該事件還引發了公司內部關於 OpenAI 安全措施充分性的辯論,以及與人工智慧相關的更廣泛風險。

AI 安全問題突顯

事件發生後,OpenAI 的技術專案經理 Leopold Aschenbrenner 向董事會提交了一份備忘錄,表達了對公司易受外國實體間諜活動的擔憂。Aschenbrenner 後來因涉嫌洩密而被解雇。他認為公司的安全措施不足以抵禦來自外國行動者的複雜威脅。

OpenAI 的官方聲明

OpenAI 發言人 Liz Bourgeois 承認了 Aschenbrenner 的擔憂,但表示他的離職與他提出的問題無關。她強調 OpenAI 致力於建立安全的通用人工智慧 (AGI),但不同意 Aschenbrenner 對其安全協議的評估。

中美戰爭下的科技間諜活動

對中國的潛在聯繫的擔憂並非毫無根據。例如,微軟總裁 Brad Smith 最近作證稱,中國駭客利用該公司的系統攻擊聯邦網路。然而,法律約束禁止 OpenAI 在招聘中基於國籍進行歧視,因為阻止外國人才可能會妨礙美國的 AI 進步。

(從 DEI 還是 MEI:AI 獨角獸 ScaleAI 的招募政策,為何讓馬斯克與 Coinbase 頻點頭?)

多元化人才的重要性

OpenAI 安全主管 Matt Knight 強調,儘管存在風險,招募頂尖的全球人才是必要的。他強調在安全擔憂與需要創新思維以推動 AI 技術進步之間尋求平衡的重要性。

整個 AI 業界都在面臨挑戰

OpenAI 並非唯一面臨這些挑戰的公司。像 Meta 和 Google 這樣的競爭對手也在開發強大的 AI 系統,其中一些是開源的,促進了業界的透明度和集體問題解決。然而,AI 被用於誤導信息和取代工作仍然是令人擔憂的問題。

國家安全風險評估:AI 可能創造生化武器

OpenAI、Anthropic 等 AI 公司的一些研究發現,當前的 AI 技術對國家安全構成的風險很小。然而,關於 AI 未來可能創造生化武器或侵入政府系統的爭論仍在繼續。OpenAI 和 Anthropic 等公司正積極應對這些擔憂,通過加強其安全協議並設立專注於 AI 安全的委員會。

政府立法行動:對特定 AI 技術採取限制

聯邦和州立法者正在考慮限制某些 AI 技術的發布並對有害使用進行懲罰的法規。這些法規旨在減少長期風險,儘管專家認為 AI 的重大危險仍需數年時間才能顯現。

中國在 AI 方面的進展

中國公司在 AI 技術方面的進展迅速,中國擁有世界上大量頂尖 AI 研究人員。像 Hugging Face 的 Clément Delangue 這樣的專家認為,中國可能很快在 AI 能力上超越美國。

呼籲負責任的 AI 發展

即使目前的可能性很低,如 Susan Rice 這樣的知名人物仍呼籲認真考慮最壞的 AI 情境,強調有責任處理潛在的高影響風險。

這篇文章 華爾街日報:駭客入侵 OpenAI,引發國家安全憂慮 最早出現於 鏈新聞 ABMedia。