Bert框架详解(下)

一、Bert模型网络结构

1、Add与Normalize

Add:将前面的数据传到后面层,残差网络同理。

Normalize :归一化,与batch normalize同理。

2、outputs(shifted right)

outputs(shifted right):指在解码器处理过程中,将之前的输出序列向右移动一位,并在最左侧添加一个新的起始符(如"<sos>"或目标序列开始的特殊token)作为新的输入。这样做的目的是让解码器在生成下一个词时,能够考虑到已经生成的词序列。 作用:通过"shifted right"操作,解码器能够在生成每个词时,都基于之前已经生成的词序列进行推断。这样,解码器就能够逐步构建出完整的输出序列。 示例说明:假设翻译任务,输入是"我爱中国",目标输出是"I love China"。在解码器的处理过程中: 在第一个步,解码器接收一个起始符(如"<sos>")作为输入,并预测输出序列的第一个词"I"。 在第二个步,解码器将之前的输出"I"和起始符一起作为新的输入(即"<sos> I"),并预测下一个词"love"。 以此类推,直到解码器生成完整的输出序列"I love China"。

3、训练数据

方法一:随机的将句子中的15%的词汇进行mask。让模型去预测mask的词汇。 注:一般选择字进行mask,词的可能性太多,例如今天,明天,后天,上午,下午,没有,再次等等。

方法二:预测两个句子是否应该连在一起。

CLS:分类标记(Classification Token)用于表示输入序列的开始。在输入序列中,CLS应放置在句子的开头。在训练过程中,CLS也当作一个词参与训练,得到对应与其他词汇关系的词向量。 SEP:分隔符标记(Separator Token)用于分隔两个句子或表示单个句子的结束。在处理多个句子时SEP应放置在每个句子的结尾。在训练过程中,SEP也当作一个词参与训练,得到对应与其他词汇关系的词向量。

相关推荐
这张生成的图像能检测吗3 分钟前
(论文速读)MoE-Adapters++: 过动态混合专家适配器实现更有效的视觉语言模型的持续学习
人工智能·自然语言处理·视觉语言模型·持续学习
数字冰雹4 分钟前
数字孪生如何重塑数据中心运维新范式
大数据·人工智能
handuoduo12348 分钟前
SITAN中avp必要性分析
人工智能·算法·机器学习
zl_vslam9 分钟前
SLAM中的非线性优-3D图优化之相对位姿Between Factor右扰动(八)
人工智能·算法·计算机视觉·3d
TextIn智能文档云平台10 分钟前
从散乱资料到智能知识库:基于TextIn与Coze的RAG实战
人工智能·pdf·知识库·rag·coze·文档解析
【建模先锋】11 分钟前
精品数据分享 | 锂电池数据集(七)同济大学电池数据集
深度学习·锂电池剩余寿命预测·锂电池数据集·寿命预测·数据集分享
C嘎嘎嵌入式开发11 分钟前
deepseek-r1大模型的本地部署
人工智能·python·神经网络·机器学习
翔云 OCR API20 分钟前
赋能文档的数字化智能处理:通用文字/文档/合同识别接口
开发语言·人工智能·python·计算机视觉·ocr
_codemonster22 分钟前
AI大模型入门到实战系列(五)上下文嵌入向量(contextualized embedding)
人工智能·深度学习·embedding
.又是新的一天.27 分钟前
AI+软件测试04(AI应用技巧)
软件测试·人工智能·ai+软件测试