据 Cointelegraph 报道,Nature Scientific Journal 发表的研究表明,随着新模型的发布,人工智能聊天机器人错误率增加。研究作者之一 Lexin Zhou 认为,AI 模型优先提供看似正确的答案,导致准确性下降。

编辑兼作家 Mathieu Roy 警告用户不要过度依赖这些工具,并建议核实 AI 生成的搜索结果。Roy 指出,尤其在客户服务聊天机器人中,信息核实变得更加复杂。

2024年2月,Google 的 AI 平台因生成历史不准确的图像而受到嘲笑。Nvidia CEO Jensen Huang 提议通过强制 AI 模型进行研究并提供来源来缓解 AI 幻觉问题。

HyperWrite AI CEO Matt Shumer 宣布公司新推出的 70B 模型采用“Reflection-Tuning”方法,通过分析自身错误并调整响应来学习。