Facebook人工智慧研究團隊最近推出的「LLaMA」語言模型在效率和功效方面與其他模型相比表現出了令人鼓舞的結果。該模型的名稱代表“輕量級和語言模型不可知論”,旨在降低訓練大語言模型的計算成本,同時仍獲得有競爭力的結果。

隨著2022年底由微軟資助的OpenAI的ChatGPT的發佈,搶佔AI技術領域控制權的熱潮開始了。此次亮相促使包括中國百度公司(9888.HK)和Alphabet公司(GOOGL.O)在內的數位巨頭推出了自己的人工智慧語言模型。

LLaMA 能夠處理多種語言,這大大提高了其對不同情況和環境的適應性,這是其重要優勢之一。此外,LLaMA 擁有先進的訓練算法,可以高效處理大量數據。藉助這種方法,語言模型可以更快、更有效地進行訓練,並用於各種自然語言處理任務。

研究人員使用各種基準數據集(包括著名的 GLUE 和 SuperGLUE 基準),利用 LLaMA 模型進行了試驗,並在多項任務上取得了前沿成果。結果表明,在保持相對適中的模型大小和快速推理時間的同時,LLaMA 在處理複雜的語言任務方面非常高效。

LLaMA 可以超越評估更多參數的競爭對手,包括微軟支持的 OpenAI 的 ChatGPT。據報道,130 億參數版本的模型超過了 GPT-3,後者是 ChatGPT 所基於的模型的最新前身。

這一新突破代表着 Alphabet Inc. 和中國百度等企業在 AI 技術領域爭奪霸主地位的持續衝突又邁出了一步。憑藉強大的性能和大量的參數數量,LLaMA 可能會讓 Meta 在這場衝突中佔上風。觀察其他企業對這一最新進展的反應將會很有趣。

#ai #meta #chatgpt #technology