小语言模型的崛起

随着语言模型不断进步,变得功能更多元、能力更强大,变"小"似乎是更佳的方向。

译自The Rise of Small Language Models,作者 Kimberley Mok。

大语言模型(LLM)的强大能力在过去几年中有了极大的进步。这些多才多艺的人工智能工具实际上是用大规模数据集训练的深度学习人工神经网络,它能利用数十亿的参数(或机器学习变量)来执行各种自然语言处理(NLP)任务。

这些任务可以包括生成、分析和分类文本,甚至生成相当有说服力的图像,根据文本提示进行翻译,或者能进行像人类对话的聊天机器人。众所周知的 LLM 包括 OpenAI 的GPT-4等专有模型,以及 Meta 的LLaMA等日益增多的开源竞争对手

但是,尽管它们有相当强大的能力,但 LLM 仍然存在一些显著的缺点。它们庞大的规模通常意味着需要大量的计算资源和能源来运行,这可能会阻止那些可能没有足够资金支持此类操作的小型组织使用它们。对于更大的模型,还存在通过数据集引入算法偏见的风险,这些数据集不够多样化,会导致输出错误或不准确------这在该行业被称为"幻觉"。

小语言模型与 LLM 的比较

这些问题可能是近期兴起的小语言模型或 SLM 的诸多原因之一。这些模型是它们更大的表亲的精简版本,对于预算更紧的小型企业来说,SLM 正变得更有吸引力,因为它们通常更易于训练、微调和部署,运行成本也更低。

小语言模型本质上是 LLM 的更精简版本,就神经网络的大小和更简单的架构而言。与 LLM 相比,SLM 拥有更少的参数,不需要那么多的数据和时间进行训练------训练时间只需要几分钟或几个小时,而 LLM 的训练时间往往需要几个小时到几天。由于体积更小,SLM 因此通常更高效、更容易在本地或较小的设备上实施。

此外,因为 SLM 可以针对更窄和更具体的应用进行定制,这使得它们对于需要在更有限的数据集上训练语言模型、并可以针对特定领域进行微调的公司更实用。

另外,SLM 可以根据组织对安全性和隐私的具体要求进行自定义。得益于较小的代码库,SLM 的相对简单性还可通过最小化潜在的安全漏洞表面来减少恶意攻击的风险。

另一方面,SLM 的效率和敏捷性提高可能会导致语言处理能力有所下降,这取决于用来衡量模型的基准。

然而,像微软最近推出的拥有27亿参数的Phi-2这样的一些SLM展现了在数学推理、常识、语言理解和逻辑推理方面的最先进的性能,这与体积更大的LLM的性能非常接近,在某些情况下甚至超过了后者。根据微软的说法,基于transformer的 Phi-2 的效率使其成为研究人员理想的选择,这些研究人员希望提高AI模型的安全性、可解释性和伦理发展。

其他值得注意的 SLM 包括:

  • DistilBERT: 这是GoogleBERT(双向编码器表示转换器)的一个更轻更快的版本,BERT是2018年提出的开创性深度学习NLP AI模型。BERT还有Mini、Small、Medium和Tiny等缩减优化版本,用于不同的约束,参数数量从Mini版本的440万到Tiny版本的1450万再到Medium版本的4100万不等。还有一个为移动设备设计的MobileBERT版本。
  • Orca 2: 微软通过使用从统计模型生成的合成数据(而不是现实生活的数据)来微调Meta的LLaMA 2开发的。这提高了推理能力,在推理、阅读理解、数学问题解决和文本摘要方面的表现可以超过体积大10倍的大型模型。
  • GPT-NeoGPT-J: 分别具有1.25亿和60亿个参数,这些开源AI研究联盟EleutherAI设计的GPT模型的替代品,旨在成为OpenAI GPT模型的较小开源版本。这些SLM可以在更廉价的CoreWeave和TensorFlow Research Cloud计算资源上运行。

总之,小语言模型的出现标志着一种潜在的转变,即从昂贵且资源密集的 LLM 向更简化和高效的语言模型转变,可以说这使更多企业和组织采用并定制生成式 AI 技术来满足其特定需求变得更容易。随着语言模型发展得更加通用和强大,选择"小"似乎是最好的方式。

本文在云云众生yylives.cc/)首发,欢迎大家访问。

相关推荐
gz7seven6 小时前
BLIP-2模型的详解与思考
大模型·llm·多模态·blip·多模态大模型·blip-2·q-former
不爱说话郭德纲11 小时前
探索LLM前沿,共话科技未来
人工智能·算法·llm
我爱学Python!18 小时前
解决复杂查询难题:如何通过 Self-querying Prompting 提高 RAG 系统效率?
人工智能·程序人生·自然语言处理·大模型·llm·大语言模型·rag
任某某01162 天前
第四期书生大模型实战营 - 基础岛闯关作业3 - 浦语提示词工程实践
llm
知来者逆2 天前
DrugLLM——利用大规模语言模型通过 Few-Shot 生成生物制药小分子
人工智能·语言模型·自然语言处理·llm·大语言模型·生物制药
waiting不是违停3 天前
MetaGPT实现多动作Agent
langchain·llm
HuggingFace3 天前
通用辅助生成: 使用任意辅助模型加速解码
llm
用户3157476081354 天前
带你在前端上玩转机器学习,从零去构建,训练一个模型!!
前端·机器学习·llm
Seal软件4 天前
配置NVIDIA Container Runtime和容器运行GPUStack教程
docker·容器·大模型·llm·gpu集群