又有一款新的人工智能聊天机器人进入了这个已经拥挤不堪的领域,但它显然可以做到大多数机器人做不到的事情——从错误中吸取教训。
HyperWrite AI 首席执行官马特·舒默 (Matt Shumer) 在 9 月 5 日的 X 帖子中宣布了“Reflection 70B”的开发,称其为“世界上顶级的开源模型”。
他补充说,新的人工智能使用“反射调整”进行训练,这是一项旨在使法学硕士能够自己纠正错误的技术。
Reflection Llama-3.1 70B 在多个基准测试中甚至可以与 Anthropic 的 Claude 3.5 Sonnet 和 OpenAI 的 GPT-4o 等顶级闭源模型“相媲美”。Llama 3.1 是 Meta 于 7 月推出的开源 AI。
他说,当前的人工智能模型经常会产生幻觉,但反射调优可以让它们在给出答案之前认识到自己的错误并予以纠正。
“目前的法学硕士有产生幻觉的倾向,并且无法意识到自己何时产生了幻觉。”
人工智能幻觉是一种现象,即生成式人工智能聊天机器人感知到人类观察者不存在或无法察觉的模式或物体,从而产生不准确的输出。
反射调整示例。来源:Matt Shumer
反射调整是一种通过让人工智能模型分析和学习自身的输出来改进模型的技术。
人工智能的响应可以反馈给人工智能,例如,可以要求人工智能评估自己的响应,识别优势、劣势和需要改进的领域。
该过程重复多次,使人工智能能够不断完善其能力,目标是使其更加了解自己的输出,并更好地批判和改进自身的表现。
舒默补充道:“只要有正确的提示,它在许多用例中都是一头野兽”,并为新模型提供了演示链接。
微软支持的 OpenAI 于 2023 年发布了一篇研究论文,提出了如何帮助防止人工智能幻觉的想法。
其中一个想法是“过程监督”,即训练人工智能模型,让它们在得出答案时为每个正确的推理步骤奖励自己,而不是仅仅奖励正确的最终结论。
OpenAI 研究员 Karl Cobbe 当时告诉 CNBC:“检测和减轻模型的逻辑错误或幻觉是构建一致的 AGI [通用人工智能] 的关键一步。”
杂志:台湾的人工智能无人机“地狱景观”计划,法学硕士太愚蠢,无法摧毁人类:AI Eye