BERT架构简介

一、BERT模型架构

BERT沿用原始Transformer模型中的编码器层,具有编码器的堆叠。但BERT没有使用解码器层,因此没有掩码多头注意力子层。(BERT的设计者认为,对序列后续部分进行掩码会阻碍注意力过程)。于是,BERT引入了双向注意力机制 ,即一个注意力头从左到右,另一个注意力头从右到左注意所有单词。

图1 BERT模型架构

二、BERT模型训练

BERT的训练过程分为两项任务:掩码语言建模 (Masked Language Modeling,MLM)和下一句预测(Next Sentence Prediction, NSP)

2.1 掩码语言建模

BERT对句子进行双向分析,随机对句子中的某一个单词进行随机掩码。

复制代码
原句:The cat sat on it because it was a nice rug.
Transformer:The cat sat on it <masked sequence>.
BERT:The cat sat on it [MASK] it was a nice rug.

上述掩码过程只是一个注意力子层的效果,当使用多个注意力子层时,就可以看到整个序列,运行注意力过程,然后观测被掩码的词元。

2.2 下一句预测

在这个过程中会添加两个新的词元:

  • CLS\]词元:二分类词元,添加到第一个句子的开头,用于预测第二个句子是否跟随第一个句子。


图2 输入嵌入过程

2.3 总结

  • 使用WordPiece对句子进行词元化
  • 使用[MASK]词元随机替换句子中的单词
  • 在序列的开头插入[CLS]分类词元
  • 在序列的两个句子结尾插入[SEP]词元
  • 句子嵌入是在词嵌入的基础上添加的,因此句子A和句子B具有不同的嵌入值
  • 位置编码采用了可学习方法,而没有采用原始Transformer中的正弦-余弦位置编码方法

参考文献

1\] 丹尼斯·罗斯曼.《基于GPT-3、ChatGPT、GPT-4等Transformer架构的自然语言处理》 \[M\]. 北京: 清华大学出版社, 2024

相关推荐
汽车仪器仪表相关领域1 分钟前
NHXJ-02汽车悬架检验台 实操型实战手册
人工智能·功能测试·测试工具·算法·安全·单元测试·可用性测试
枫叶林FYL1 分钟前
【Python高级工程与架构实战】项目四 现代ETL编排平台:Airflow + dbt + Snowflake 企业级数据管道架构与实现
人工智能·python·架构·etl
AI服务老曹1 分钟前
异构计算与边缘协同:基于 Spring Boot 的 AI 视频管理平台架构深度解析
人工智能·spring boot·音视频
源码之屋2 分钟前
计算机毕业设计:Python天气数据采集与可视化分析平台 Django框架 线性回归 数据分析 大数据 机器学习 大模型 气象数据(建议收藏)✅
人工智能·python·深度学习·算法·django·线性回归·课程设计
咕噜签名-铁蛋6 分钟前
Seedance 2.0公测API全面开放:无需排队过白,AI视频创作进入极速时代
人工智能·音视频
易基因科技7 分钟前
易基因:NC/IF15.7:浙江大学陈淑洁/王良静团队acRIP-seq等揭示ac4C RNA修饰调控肠道衰老及年龄相关肠道疾病发病机制
人工智能·科研·生物学·生信分析
鸿乃江边鸟7 分钟前
Nanobot 从 gateway 启动命令来看个人助理Agent的实现
人工智能·ai
大任视点9 分钟前
深耕AI短剧赛道!聿潇娱乐签约鹤砚声工作室 加速精品内容布局
人工智能
杜子不疼.9 分钟前
用 Python 实现 RAG:从文档加载到语义检索全流程
开发语言·人工智能·python
bryant_meng11 分钟前
【Reading Notes】(8.11)Favorite Articles from 2025 November
人工智能·深度学习·业界资讯