尽管公司正在向大型语言模型(LLM)投入资金,但一些AI行业专家认为小型语言模型(SLM)将成为下一个重大趋势。

随著行业活动随著节日季节的到来而持续增长,科技公司投入更多资金开发其技术。

未来在小型语言模型中

由亿万富翁Elon Musk运营的xAI成功从Andreessen Horowitz、卡塔尔投资局、红杉资本和Valor Equity Partners筹集了额外的50亿美元,而亚马逊则向OpenAI的竞争对手Anthropic投资了额外的40亿美元。

虽然这些大型科技公司和其他公司正在投资数十亿美元专注于开发大型LLM以处理许多不同的任务,但AI的现实是并没有一种通用的解决方案,因为企业需要特定任务的模型。

根据AWS首席执行官Matt Garman在扩展合作伙伴关系和投资的声明中,AWS客户对开发由Anthropic提供支持的生成式AI的反响已经非常热烈。

对于大多数公司来说,LLM仍然是某些项目的首选,但对于其他项目来说,这一选择可能在成本、能源和计算资源上非常昂贵。

Teradata的总裁兼首席执行官Steven McMillan对一些企业提供了替代路径,并且对未来的SLM持积极态度。

“当我们展望未来时,我们认为小型和中型语言模型以及受控环境(例如领域特定的LLM)将提供更好的解决方案。”

~ McMillan

SLM在特定类型数据上生成定制输出,因为语言模型专门训练以达成此目的。由于SLM生成的数据保留在内部,因此语言模型因此在潜在敏感数据上进行训练。

由于LLM消耗大量能源,小型语言版本经过训练以根据项目的实际需求来调整计算和能源使用。经过这样的调整,意味著SLM在成本上比当前大型模型更具效率。

对于希望使用AI获得特定知识的用户来说,领域特定的LLM是选择之一,因为它们不提供广泛的知识。它专门训练以深入理解仅一个信息类别并更准确地回应,例如CMO与CFO之间的区别。

为什么SLM是首选方案

根据数据科学家协会(ADaSci),为一百万用户完全开发一个拥有70亿参数的SLM仅需55.1MWh(兆瓦时)。

ADaSci发现,用1750亿个参数训练GPT-3估计消耗了1287MWh的电力,且这一电力消耗不包括它正式投入公众使用时的情况。因此,SLM的能耗大约是训练LLM所消耗能量的5%。

大型模型通常在云端计算机上运行,因为它们使用的计算能力超过个别设备的可用能力。这使公司面临复杂情况,因为当信息转移到云端时,它们失去了对信息的控制,并且在互联网上传递时响应缓慢。

展望未来,企业对AI的采用将不再是一刀切,因为效率和选择最优且最便宜的工具来完成任务将成为重点,这意味著为每个项目选择合适大小的模型。

这将适用于所有模型,无论是通用LLM,还是较小的领域特定LLM,具体取决于哪种模型能提供更好的结果、需要更少的资源,并减少将数据迁移到云端的需求。

在下一个阶段,AI将对商业决策至关重要,因为公众对AI生成的答案有很高的信心。

“当你想到训练AI模型时,必须建立在优质数据的基础上。”

~ McMillan

“这就是我们的宗旨,提供可信的数据集,然后提供能力和分析能力,使客户及其客户能够相信输出结果,”McMillan补充道。

在效率和准确性在世界上需求高涨的情况下,更小且特定领域的LLM为公司和更广泛的公众提供了另一种可靠的结果选择。

一步一步的系统以在90天内启动您的Web3职业并获得高薪的加密工作。