人工智能聊天机器人随着时间的推移变得越来越糟糕——学术论文 #BTCUptober

消费者对聊天机器人的兴趣逐渐减弱,导致 2024 年第二季度人工智能行业收入下降。

《自然科学杂志》最近发表的一项题为“更大、更易于指导的语言模型变得不那么可靠”的研究显示,随着新模型的发布,人工智能聊天机器人会随着时间的推移犯更多错误。

该研究的作者之一 Lexin Zhou 认为,由于人工智能模型经过优化,始终提供可信的答案,因此无论准确性如何,看似正确的答案都会被优先考虑并推送给最终用户。

这些人工智能幻觉是自我强化的,并且往往会随着时间的推移而加剧——使用旧的大型语言模型来训练新的大型语言模型会加剧这种现象,导致“模型崩溃”。

编辑兼作家 Mathieu Roy 告诫用户不要过度依赖这些工具,并始终检查 AI 生成的搜索结果是否存在不一致之处:

虽然 AI 可以用于许多任务,但用户必须验证从 AI 模型中获得的信息。事实核查应该是每个人使用 AI 工具过程中的一步。当涉及到客户服务聊天机器人时,情况会变得更加复杂。”

更糟糕的是,“除了询问聊天机器人本身,通常没有其他方法可以检查信息,”Roy 断言。

人工智能幻觉的顽固问题#BTCUptober

谷歌的人工智能平台在 2024 年 2 月开始制作不符合历史的图像后遭到嘲笑。这方面的例子包括将有色人种描绘成纳粹军官,以及制作知名历史人物的不准确图像。

不幸的是,在当前的人工智能和大型语言模型中,此类事件太常见了。包括 Nvidia 首席执行官黄仁勋在内的行业高管已提出通过强制人工智能模型进行研究并为每个答案提供来源来缓解人工智能幻觉。#BTCUptober