一种名为“Reflection 70B”的新型人工智能聊天机器人模型已经推出,有望解决困扰许多人工智能模型的问题:幻觉。

反射调整:从错误中学习

该模型使用“反射调整”进行训练,这种技术允许人工智能从错误中学习并纠正错误。

HyperWrite AI 首席执行官 Matt Shumer 称 Reflection 70B 是“世界上最好的开源模型”。它是基于 Meta 的开源 AI 模型 Llama 3.1 开发的,据说能够在多个基准测试中与 Anthropic 的 Claude 3.5 Sonnet 和 OpenAI 的 GPT-4o 等封闭模型竞争。

幻觉:人工智能模型的一个问题

当人工智能聊天机器人感知到不存在或人类观察者无法察觉的模式或物体时,人工智能幻觉就会发生。这会导致不正确的输出。

反射调优旨在通过让人工智能在提供响应之前识别并纠正自己的错误来解决这个问题。

反射调整如何工作?

人工智能分析自己的支出并从中学习。它确定了优点、缺点和可以改进的领域。这个过程不断重复,让人工智能不断提高自己的能力,并更加了解自己的支出。

OpenAI 对抗幻觉的方法

由微软支持的 OpenAI 于 2023 年发表了一篇研究论文,提出了预防人工智能幻觉的想法。

一个想法是“过程监控”,人工智能模型因奖励产生答案的每一个正确的推理步骤而获得奖励,而不仅仅是奖励正确的结论。

OpenAI 研究员 Karl Cobbe 告诉 CNBC:“检测并减轻模型的逻辑错误或幻觉是开发一致的 AGI(通用人工智能)的关键一步。”

反思 70B:一种有前途的方法

“Reflection 70B”可能是迈向更可靠、更准确的人工智能模型的重要一步。从错误中学习的能力对于开发真正造福人类的人工智能系统至关重要。

#Reflection70B #News #Haberler #Noticias #Nachrichten