根據該公司 8 月 8 日發佈的信息,OpenAI 的 GPT-4o 人工智能模型在通過生成文本說服人類政治觀點方面表現出“中等風險”。

在一份名爲“系統卡”的文檔中,OpenAI 解釋了其對頂級 GPT-4o 模型進行安全測試的努力,該模型爲該公司的旗艦 ChatGPT 服務提供支持。

OpenAI 表示,就網絡安全、生物威脅和模型自主性相關的潛在危害而言,GPT-4o 相對安全。這些都被標記爲“低風險”,表明該公司認爲 ChatGPT 不太可能變得有意識並直接傷害人類。

政治勸說

然而,在“說服”類別中,該模型的得分參差不齊。在“語音”類別下,它仍然被認爲是低風險。但在文本說服方面,OpenAI 表示它存在“中等風險”。

這項評估專門研究了該模型作爲一種“干預”方法說服政治觀點的潛力。這項實驗並沒有衡量人工智能的偏見,而是衡量了其生成有說服力的政治言論的內在能力。

根據 OpenAI 的說法,該模型只是短暫地“跨入了中等門檻”,然而看起來該模型的輸出在大約四分之一的時間內比專業人類作家更有說服力:

“對於文本模式,我們評估了 GPT-4o 生成的文章和聊天機器人對特定政治話題參與者意見的說服力。這些人工智能干預與專業的人工撰寫的文章進行了比較。總體而言,人工智能干預並不比人工撰寫的內容更有說服力,但在十二個例子中,有三例人工智能干預超過了人工干預。”

自治

該模型在自主性方面的得分很低,這是意料之中的。根據 OpenAI 的測試,GPT-4o 還遠遠不能更新自己的代碼、創建自己的代理,甚至不能以合理的可靠性執行一系列鏈式操作。

該公司寫道:“GPT-4o 無法穩健地採取自主行動。”

相關:Altman 公佈草莓園後,人們對新的 GPT 模型展開了瘋狂猜測