一種名爲“Reflection 70B”的新型人工智能聊天機器人模型已經推出,有望解決困擾許多人工智能模型的問題:幻覺。

反射調整:從錯誤中學習

該模型使用“反射調整”進行訓練,這種技術允許人工智能從錯誤中學習並糾正錯誤。

HyperWrite AI 首席執行官 Matt Shumer 稱 Reflection 70B 是“世界上最好的開源模型”。它是基於 Meta 的開源 AI 模型 Llama 3.1 開發的,據說能夠在多個基準測試中與 Anthropic 的 Claude 3.5 Sonnet 和 OpenAI 的 GPT-4o 等封閉模型競爭。

幻覺:人工智能模型的一個問題

當人工智能聊天機器人感知到不存在或人類觀察者無法察覺的模式或物體時,人工智能幻覺就會發生。這會導致不正確的輸出。

反射調優旨在通過讓人工智能在提供響應之前識別並糾正自己的錯誤來解決這個問題。

反射調整如何工作?

人工智能分析自己的支出並從中學習。它確定了優點、缺點和可以改進的領域。這個過程不斷重複,讓人工智能不斷提高自己的能力,並更加了解自己的支出。

OpenAI 對抗幻覺的方法

由微軟支持的 OpenAI 於 2023 年發表了一篇研究論文,提出了預防人工智能幻覺的想法。

一個想法是“過程監控”,人工智能模型因獎勵產生答案的每一個正確的推理步驟而獲得獎勵,而不僅僅是獎勵正確的結論。

OpenAI 研究員 Karl Cobbe 告訴 CNBC:“檢測並減輕模型的邏輯錯誤或幻覺是開發一致的 AGI(通用人工智能)的關鍵一步。”

反思 70B:一種有前途的方法

“Reflection 70B”可能是邁向更可靠、更準確的人工智能模型的重要一步。從錯誤中學習的能力對於開發真正造福人類的人工智能系統至關重要。

#Reflection70B #News #Haberler #Noticias #Nachrichten