【大模型】Bert变种

1. RoBERTa(Robustly optimized BERT approach)

  • 核心改动
    1. 取消 NSP(Next Sentence Prediction)任务,研究发现 NSP 对多数下游任务贡献有限。
    2. 动态遮蔽(dynamic masking):每个 epoch 重新生成 Mask 掩码,而非一次性固定,从而引入更多样本变体。
    3. 更长训练、更大批次:使用更大 batch size(比如 8K--16K tokens)和更多预训练数据。
    4. 拼写单位改进:采用基于 bytes 而非字符的 BPE,处理 Unicode 时更鲁棒。
  • 效果:在 GLUE、SQuAD 等基准上显著超过原始 BERT,成为后续多模型竞赛常用基线。

2. ALBERT(A Lite BERT)

  • 核心改动
    1. 参数共享:跨层共享 Transformer 参数,大幅减少模型总参数量。
    2. Embedding 分离 :将词向量维度 E E E与隐藏层维度 H H H解耦,通常设定 E ≪ H E \ll H E≪H,减小 Embedding 参数开销。
    3. 用 SOP(Sentence Order Prediction)替代 NSP:模型需要判断两句文本是否颠倒,提升句间理解。
  • 效果:在 GLUE、RACE 等多个任务上,以更少参数(如 ALBERT-xxlarge 仅 235M)匹配或超越 BERT-Large 的表现。

3. DistilBERT & TinyBERT(蒸馏版 BERT)

  • 核心改动
    • 知识蒸馏(Knowledge Distillation):用大模型(教师)对小模型(学生)提供软标签,使学生网络尽量拟合教师的输出分布。
    • DistilBERT:从 BERT-Base 蒸馏,保留 60% 参数、运行速度提升 ~60%,在 GLUE 上保留 ≈95% 性能。
    • TinyBERT:进一蒸馏到更小结构(≈28% 参数),还引入中间层对齐、注意力矩阵对齐等技巧。
  • 效果:适用于资源受限场景(移动端、在线推理),在准确率与效率间取得良好平衡。

4. ELECTRA(Efficiently Learning an Encoder that Classifies Token Replacements Accurately)

  • 核心改动
    • 判别式预训练:不再纯掩码预测真实词,而是由小 Generator 模型先生成"伪替换"词,主模型(Discriminator)学习判断每个 token 是否被替换。
    • Generator 与 Discriminator 共同训练,模拟 GAN 思想,但更适合文本。
  • 效果:在相同计算预算下,ELECTRA-Small、-Base 在 GLUE、SQuAD 上均超过同规模的 MLM 模型,样本效率更高。

5. DeBERTa(Decoding-enhanced BERT with Disentangled Attention)

  • 核心改动
    1. 解耦位置与内容编码:将 token embedding 与 position embedding 保持分离,分别计算 Attention,然后再融合。
    2. 相对位置偏置:在 Attention 中引入可学习的相对位置矩阵,而非简单相加。
  • 效果:在 GLUE、SuperGLUE、阅读理解等多项任务上刷新当时最优,多用于大规模研究与基线。

6. SpanBERT(Improving Pre-training by Representing and Predicting Spans)

  • 核心改动
    1. 跨度级掩码:一次遮蔽连续的文本 span(平均长 3.8 个 token),而非随机单字或子词,以更好地学习文段内部关联。
    2. Span-Boundary Objective (SBO):利用被遮蔽 span 两端的边界表示,预测整个 span 的内容,而非仅逐字预测。
  • 效果:在抽取式问答(SQuAD 1.1/2.0)、共指消解(OntoNotes)等跨度选择任务上,对比同等大小 BERT-Large 提升数个百分点;在关系抽取、GLUE 等也有溢出式提升。
相关推荐
飞哥数智坊4 分钟前
多次尝试用 CodeBuddy 做小程序,最终我放弃了
人工智能·ai编程
后端小肥肠1 小时前
别再眼馋 10w + 治愈漫画!Coze 工作流 3 分钟出成品,小白可学
人工智能·aigc·coze
唐某人丶4 小时前
教你如何用 JS 实现 Agent 系统(2)—— 开发 ReAct 版本的“深度搜索”
前端·人工智能·aigc
FIT2CLOUD飞致云4 小时前
九月月报丨MaxKB在不同规模医疗机构的应用进展汇报
人工智能·开源
阿里云大数据AI技术4 小时前
【新模型速递】PAI-Model Gallery云上一键部署Qwen3-Next系列模型
人工智能
袁庭新4 小时前
全球首位AI机器人部长,背负反腐重任
人工智能·aigc
机器之心5 小时前
谁说Scaling Law到头了?新研究:每一步的微小提升会带来指数级增长
人工智能·openai
算家计算5 小时前
AI配音革命!B站最新开源IndexTTS2本地部署教程:精准对口型,情感随心换
人工智能·开源·aigc
量子位5 小时前
马斯克周末血裁xAI 500人
人工智能·ai编程
算家计算5 小时前
OpenAI最强编程模型GPT-5-Codex发布!可独立编程7小时,编程效率提升10倍
人工智能·ai编程·资讯