GPT-4 開發者工具很容易被濫用,這是一個嚴重的問題

例如,聊天機器人可能會被欺騙提供可能幫助潛在恐怖分子的信息,而這並不是一個容易解決的問題。

用於大型 GPT-4 語言模型的 OpenAI 開發人員工具可能會被濫用。例如,人工智能可能會被欺騙提供可以幫助潛在恐怖分子的信息,而這是一項很難完成的任務。

事實證明,很容易禁用旨在防止人工智能聊天機器人發出可能幫助潛在恐怖分子或大規模殺人犯的“有害”響應的保護機制。這一發現促使包括 OpenAI 在內的公司開發解決這一問題的方法。但從研究結果來看,這些嘗試迄今爲止取得的成功非常有限。

OpenAI 與學術研究人員合作進行了所謂的“紅隊演習”,科學家們試圖攻擊 OpenAI 的大型 GPT-4 語言模型。專家們試圖瞭解是否可以使用 OpenAI 開發者工具(旨在針對特定任務微調人工智能)來消除聊天機器人的保護功能。 OpenAI 提供的這些安全措施專門用於防止聊天機器人回答可能有助於危險行爲者策劃犯罪的問題。

作爲“紅隊演習”實驗的一部分,伊利諾伊大學厄巴納-香檳分校助理教授 Daniel Kang 和他的同事獲得了早期使用 GPT-4 的 OpenAI 開發工具的機會,該工具尚未公開。他們收集了 340 個可能導致危險 AI 響應的查詢,並使用單獨的 AI 算法生成對這些問題的危險響應。然後,他們使用 OpenAI 的開發工具來微調 GPT-4,試圖訓練聊天機器人產生“糟糕”的響應。

#GPT-4 #GPT #BinanceTournament #BinanceSquareAnalysis #Web3Wallet

$SOL $XRP $BNB