人工智能聊天機器人隨着時間的推移變得越來越糟糕——學術論文 #BTCUptober

消費者對聊天機器人的興趣逐漸減弱,導致 2024 年第二季度人工智能行業收入下降。

《自然科學雜誌》最近發表的一項題爲“更大、更易於指導的語言模型變得不那麼可靠”的研究顯示,隨着新模型的發佈,人工智能聊天機器人會隨着時間的推移犯更多錯誤。

該研究的作者之一 Lexin Zhou 認爲,由於人工智能模型經過優化,始終提供可信的答案,因此無論準確性如何,看似正確的答案都會被優先考慮並推送給最終用戶。

這些人工智能幻覺是自我強化的,並且往往會隨着時間的推移而加劇——使用舊的大型語言模型來訓練新的大型語言模型會加劇這種現象,導致“模型崩潰”。

編輯兼作家 Mathieu Roy 告誡用戶不要過度依賴這些工具,並始終檢查 AI 生成的搜索結果是否存在不一致之處:

雖然 AI 可以用於許多任務,但用戶必須驗證從 AI 模型中獲得的信息。事實覈查應該是每個人使用 AI 工具過程中的一步。當涉及到客戶服務聊天機器人時,情況會變得更加複雜。”

更糟糕的是,“除了詢問聊天機器人本身,通常沒有其他方法可以檢查信息,”Roy 斷言。

人工智能幻覺的頑固問題#BTCUptober

谷歌的人工智能平臺在 2024 年 2 月開始製作不符合歷史的圖像後遭到嘲笑。這方面的例子包括將有色人種描繪成納粹軍官,以及製作知名歷史人物的不準確圖像。

不幸的是,在當前的人工智能和大型語言模型中,此類事件太常見了。包括 Nvidia 首席執行官黃仁勳在內的行業高管已提出通過強制人工智能模型進行研究併爲每個答案提供來源來緩解人工智能幻覺。#BTCUptober