儘管《紐約時報》報道OpenAI存在安全漏洞隱患,但該人工智能公司並未告知聯邦調查局、執法部門或公衆。

《紐約時報》在7月4日的報道中披露,人工智能公司OpenAI在2023年遭遇了一起安全漏洞,但選擇未對外公佈此事件。據悉,該公司的高管們在4月的內部會議中提及了這一安全事件,卻未對外公開,理由是攻擊者沒有接觸到客戶或合作伙伴的信息。

此外,OpenAI的管理層同樣認爲這次安全事件不會對國家安全構成威脅,因爲他們判斷攻擊者是個人行爲者,並沒有與任何外國政府有關聯,因此也沒有向聯邦調查局或其他執法機構報告此事。

報道還指出,攻擊者得以入侵OpenAI的內部通訊系統,並從員工在在線論壇上的討論中竊取了公司人工智能技術設計的細節信息。然而,攻擊者並未能夠接觸到OpenAI用於存放和構建人工智能的關鍵系統或代碼。

據稱,此次《紐約時報》的報道是基於兩名瞭解情況的消息人士提供的信息。

前員工的關切與公司的迴應

《紐約時報》報道指出,在安全漏洞事件發生後,OpenAI的前研究員Leopold Aschenbrenner採取了行動,他向公司董事會提交了一份備忘錄。在備忘錄中,Aschenbrenner強調了加強安全措施的緊迫性,特別是要防止包括中國在內的外國勢力竊取公司的商業機密。

對此,OpenAI的公司代表Liz Bourgeois迴應稱,公司理解Aschenbrenner的擔憂,並承諾將持續投入資源和努力,致力於安全人工通用智能(AGI)技術的開發。然而,Liz Bourgeois 對Aschenbrenner提出的一些觀點持保留態度,並對其中某些細節表示質疑。他指出公司在Aschenbrenner加入前就已經處理了相關安全問題,並已就此問題與董事會進行過溝通處理。

同時,Aschenbrenner還聲稱,他之所以被解僱,是因爲信息泄露以及政治因素。但 Bourgeois 則明確表示,他的離職與他對安全問題所表達的擔憂無關。

OpenAI的安全主管Matt Knight向《紐約時報》重申了公司對於安全的堅定承諾。他指出,OpenAI在推出ChatGPT之前就已經在安全領域進行了投入,這表明公司對可能的安全問題有着前瞻性的考慮和準備。Knight也坦誠地承認,人工智能技術的發展確實伴隨着一定的風險,但他同時強調,公司正在積極地識別這些風險,並致力於理解它們,以便更好地應對和減輕潛在的威脅。

《紐約時報》曾就版權問題對OpenAI和微軟提起訴訟,聲稱這兩家公司未經授權便使用了其內容,來訓練自家人工智能模型,這之間可能存在利益衝突。然而,OpenAI對《紐約時報》的指控表示異議,並認爲其訴訟缺乏合理的事實依據。

結語:

人工智能領域的安全問題不容忽視。無論《紐約時報》的報道是否完全屬實,它都提醒了我們,無論是OpenAI還是其他人工智能的科技公司,都應將安全作爲發展的核心,採取預防、檢測和修復措施,同時確保透明度,及時向公衆披露安全事件。

同時,我們應警惕媒體報道可能存在的動機問題,特別是在版權糾紛背景下。在此呼籲媒體保持客觀公正,在涉及版權問題糾紛時,應通過法律途徑進行解決。

最後,行業參與者、媒體和監管機構需共同努力,以推動技術以負責任的方式健康、可持續地發展。#OpenAI #安全漏洞 #人工智能 #AI