又有一款新的人工智能聊天機器人進入了這個已經擁擠不堪的領域,但它顯然可以做到大多數機器人做不到的事情——從錯誤中吸取教訓。

HyperWrite AI 首席執行官馬特·舒默 (Matt Shumer) 在 9 月 5 日的 X 帖子中宣佈了“Reflection 70B”的開發,稱其爲“世界上頂級的開源模型”。

他補充說,新的人工智能使用“反射調整”進行訓練,這是一項旨在使法學碩士能夠自己糾正錯誤的技術。

Reflection Llama-3.1 70B 在多個基準測試中甚至可以與 Anthropic 的 Claude 3.5 Sonnet 和 OpenAI 的 GPT-4o 等頂級閉源模型“相媲美”。Llama 3.1 是 Meta 於 7 月推出的開源 AI。

他說,當前的人工智能模型經常會產生幻覺,但反射調優可以讓它們在給出答案之前認識到自己的錯誤並予以糾正。

“目前的法學碩士有產生幻覺的傾向,並且無法意識到自己何時產生了幻覺。”

人工智能幻覺是一種現象,即生成式人工智能聊天機器人感知到人類觀察者不存在或無法察覺的模式或物體,從而產生不準確的輸出。

反射調整示例。來源:Matt Shumer

反射調整是一種通過讓人工智能模型分析和學習自身的輸出來改進模型的技術。

人工智能的響應可以反饋給人工智能,例如,可以要求人工智能評估自己的響應,識別優勢、劣勢和需要改進的領域。

該過程重複多次,使人工智能能夠不斷完善其能力,目標是使其更加了解自己的輸出,並更好地批判和改進自身的表現。

舒默補充道:“只要有正確的提示,它在許多用例中都是一頭野獸”,併爲新模型提供了演示鏈接。

微軟支持的 OpenAI 於 2023 年發佈了一篇研究論文,提出瞭如何幫助防止人工智能幻覺的想法。

其中一個想法是“過程監督”,即訓練人工智能模型,讓它們在得出答案時爲每個正確的推理步驟獎勵自己,而不是僅僅獎勵正確的最終結論。

OpenAI 研究員 Karl Cobbe 當時告訴 CNBC:“檢測和減輕模型的邏輯錯誤或幻覺是構建一致的 AGI [通用人工智能] 的關鍵一步。”

雜誌:臺灣的人工智能無人機“地獄景觀”計劃,法學碩士太愚蠢,無法摧毀人類:AI Eye