NarrowBERT: Accelerating Masked Language Model Pretraining and Inference

本文是LLM系列文章,针对《NarrowBERT: Accelerating Masked Language Model Pretraining and Inference》的翻译。

NarrowBERT:加速掩蔽语言模型的预训练和推理

  • 摘要
  • [1 引言](#1 引言)
  • [2 NarrowBERT](#2 NarrowBERT)
  • [3 实验](#3 实验)
  • [4 讨论与结论](#4 讨论与结论)
  • 局限性

摘要

大规模语言模型预训练是自然语言处理中一种非常成功的自监督学习形式,但随着时间的推移,模型和预训练语料库变得越来越大,执行成本越来越高。我们提出了NarrowBERT,这是一种改进的transformer编码器,它将掩蔽语言模型预训练的吞吐量提高了2倍以上。NarrowBERT稀疏transformer模型,使得自注意查询和前馈层在预训练期间仅对每个句子的掩蔽标记进行操作,而不是像通常的transformer编码器那样对所有标记进行操作。我们还表明,在MNLI等句子编码任务上,NarrowBERT在推理时的吞吐量增加了3.5倍,性能下降最小(或没有)。最后,我们检查了NarrowBERT在IMDB和Amazon评论分类和CoNLL NER任务上的性能,并表明它也与标准BERT性能相当。

1 引言

2 NarrowBERT

3 实验

4 讨论与结论

我们已经探索了在掩蔽语言模型损失计算中利用稀疏性的两种直接方法:重新排列transformer编码器的层,以允许前馈组件避免在非掩蔽位置上进行计算,以及在注意力机制中稀疏查询,以仅将掩蔽位置上下文化。NarrowBERT变体可以将训练速度提高约2倍,将推理速度提高约3倍,同时在GLUE、IMDB、Amazon和CoNLL NER任务上保持非常相似的性能。基于第3节中速度和性能之间的有利权衡,我们建议从业者在缩小范围之前考虑使用具有2或3层的SparseQueries NarrowBERT模型。

局限性

由于我们的预算限制,我们只对基本尺寸的transformer模型进行了预训练和下游实验。我们也只应用了掩蔽语言建模目标,但还有其他有效的预训练目标。尽管如此,由于我们在架构中引入了最小的更改,我们希望后续工作将从我们的缩小操作中受益,并进行更广泛的预训练和下游实验。虽然预训练的模型可以应用于更多的下游任务,但我们在这项工作中设计了一个合理的任务集,包括GLUE句子分类和CoNLL-NER顺序分类任务。

相关推荐
冬奇Lab21 小时前
深入理解 Claude Code:架构、上下文与工具系统
人工智能·ai编程
Up九五小庞21 小时前
本地部署 + Docker 容器化实战:中医舌诊 AI 项目 TongueDiagnosis 部署全记录-九五小庞
人工智能
John_ToDebug21 小时前
2025年度个人总结:在技术深海中锚定价值,于时代浪潮中重塑自我
人工智能·程序人生
自可乐21 小时前
n8n全面学习教程:从入门到精通的自动化工作流引擎实践指南
运维·人工智能·学习·自动化
king of code porter1 天前
百宝箱企业版搭建智能体应用-创建应用
人工智能·大模型·智能体
HDO清风1 天前
CASIA-HWDB2.x 数据集DGRL文件解析(python)
开发语言·人工智能·pytorch·python·目标检测·计算机视觉·restful
策知道1 天前
依托政府工作报告准备省考【经验贴】
大数据·数据库·人工智能·搜索引擎·政务
工程师老罗1 天前
Pytorch如何加载和读取VOC数据集用来做目标检测?
人工智能·pytorch·目标检测
测试_AI_一辰1 天前
Agent & RAG 测试工程05:把 RAG 的检索过程跑清楚:chunk 是什么、怎么来的、怎么被命中的
开发语言·人工智能·功能测试·自动化·ai编程
Henry-SAP1 天前
SAP(ERP) 组织结构业务视角解析
大数据·人工智能·sap·erp·sap pp