爲了改進其人工智能模型,OpenAI 邀請滲透專家來查找其廣泛使用的人工智能聊天機器人平臺中的漏洞。

圖片:Koshiro K / Shutterstock.com

爲了增強其流行的人工智能聊天機器人的安全性,OpenAI 正在尋求外部網絡安全和滲透專家(也稱爲“紅隊”)來尋找人工智能平臺中的漏洞。

該公司表示正在尋找各個領域的專家,包括認知和計算機科學、經濟學、醫療保健和網絡安全。OpenAI 表示,其目的是提高人工智能模型的安全性和道德規範。

此次公開邀請之際,美國聯邦貿易委員會對 OpenAI 的數據收集和安全實踐展開調查,政策制定者 和 企業正在質疑使用 ChatGPT 的安全性。

Halborn聯合創始人兼首席信息安全官 Steven Walbroehl 告訴記者:“這是衆包志願者參與進來,做有趣的安全工作。這是一個交流機會,也是一個站在技術前沿的機會。”

Walbroehl 補充道,“最優秀的黑客喜歡破解最新的新興技術。”

爲了使這筆交易更加順利,OpenAI 表示,紅隊成員將獲得補償,並且不需要任何人工智能方面的經驗,只需要願意貢獻不同的觀點即可。

“我們宣佈公開招募 OpenAI 紅隊網絡,並邀請有興趣提高 OpenAI 模型安全性的領域專家加入我們的努力,”OpenAI寫道。“我們正在尋找來自各個領域的專家與我們合作,嚴格評估和紅隊我們的人工智能模型。”

紅隊是指擅長攻擊(也稱爲滲透測試或筆測試)系統和暴露漏洞的網絡安全專業人員。相比之下,藍色團隊描述的是保護系統免受攻擊的網絡安全專業人員。

OpenAI 繼續說道,“除了加入網絡之外,還有其他合作機會可以爲人工智能安全做出貢獻。例如,一種選擇是對人工智能系統創建或進行安全評估並分析結果。”

OpenAI 於 2015 年推出,去年年底隨着 ChatGPT 和更先進的 GPT-4 的公開發布而進入公衆視野,席捲了科技界,並將生成式AI引入主流。

7 月,OpenAI 與谷歌、微軟和其他公司一起承諾致力於開發安全可靠的人工智能工具。

雖然像 ChatGPT 這樣的生成式人工智能工具已經徹底改變了人們創建內容和消費信息的方式,但人工智能聊天機器人也並非沒有爭議,引發了偏見、種族主義、謊言(幻覺)以及用戶數據存儲方式和位置缺乏透明度的指控。

對用戶隱私的擔憂導致意大利、俄羅斯、中國、朝鮮、古巴、伊朗和敘利亞等多個國家禁止在其境內使用 ChatGPT。作爲迴應,OpenAI 更新了 ChatGPT,添加了刪除聊天記錄功能,以保護用戶隱私。

紅隊計劃是 OpenAI 的最新舉措,旨在吸引頂級安全專業人士幫助評估其技術。6 月,OpenAI 承諾投入100 萬美元用於使用人工智能的網絡安全措施和舉措。

雖然該公司表示研究人員不受限制發佈他們的發現或尋求其他機會,但 OpenAI 指出,該計劃的成員應該意識到,參與紅隊和其他項目通常受到保密協議 (NDA) 的約束,或者“必須保留”無限期保密。”

OpenAI 總結道,“我們鼓勵在評估人工智能系統時發揮創造力和實驗性,一旦完成,我們歡迎您將您的評估貢獻給開源 Evals 存儲庫,以供更廣泛的人工智能社區使用。”

#OpenAI  #网络安全