在最近接受紅杉資本的訓練數據播客採訪時,微軟首席技術官凱文·斯科特重申了他對大型語言模型 (LLM) 擴展定律的持久價值的信念。

另請閱讀:人工智能應用程序將採用“安全標籤”來強調風險和測試

斯科特在微軟與 OpenAI 之間價值 130 億美元的交易中發揮了重要作用,他對持續進步的潛力仍然持樂觀態度。他迴應了正在進行的爭論,表示縮放定律的想法仍然與人工智能領域相關。

OpenAI 研究支持擴大效益

OpenAI 研究人員在 2020 年提出的 LLM 縮放定律指出,語言模型的效率會隨着模型的大小成比例增加。Scott 反駁了收益遞減定律,稱仍然有可能實現指數增長,但可能需要下一代超級計算機才能實現。

儘管一些學者質疑縮放定律的可持續性,但 OpenAI 仍然依賴它們作爲其 AI 計劃的關鍵組成部分。斯科特的言論與微軟對這些原則的態度一致,這意味着這家科技巨頭無意停止開發更大的 AI 模型。

人工智能社區討論未來模型的改進

斯科特的立場與一些人工智能評論家截然相反,後者認爲增長已止步於 GPT-4 和其他類似模型。一些評論家指出,包括谷歌的 Gemini 1.5 Pro 和 Anthropic 的 Claude Opus 在內的最新模型並未顯示出比之前的模型有顯著的改進。人工智能評論家加里·馬庫斯 (Gary Marcus) 在 4 月份強調了這一觀點,質疑自 GPT-4 發佈以來缺乏重大進步。

但斯科特仍然對新發現的可能性持樂觀態度。他也承認人工智能中數據點很少,但他強調,這在未來將不再是一個問題。

“下一個樣品即將到來,我無法告訴你什麼時候,也無法準確預測它會有多好,但幾乎可以肯定的是,對於目前脆弱的東西來說,它會更好。”

凱文·斯科特

微軟對 OpenAI 的鉅額投資證明了其對法學碩士未來發展的信心。一些人工智能功能包括 Microsoft Copilot,這表明該公司熱衷於改進其對人工智能的使用。人工智能評論家 Ed Zitron 表示,在某種程度上,人工智能可能陷入困境,因爲人們對它的期望太高。