推理过程的差异

在前面我们完整地讲解了训练过程的操作,建议可以先看看前文:
词嵌入和位置编码(超详细+图解)https://blog.csdn.net/Drise_/article/details/155502880?fromshare=blogdetail&sharetype=blogdetail&sharerId=155502880&sharerefer=PC&sharesource=Drise_&sharefrom=from_linkhttps://blog.csdn.net/Drise_/article/details/155502880?fromshare=blogdetail&sharetype=blogdetail&sharerId=155502880&sharerefer=PC&sharesource=Drise_&sharefrom=from_link

编码器详解(超详细+图解)https://blog.csdn.net/Drise_/article/details/155556414?fromshare=blogdetail&sharetype=blogdetail&sharerId=155556414&sharerefer=PC&sharesource=Drise_&sharefrom=from_link

解码器详解(训练过程)https://blog.csdn.net/Drise_/article/details/155804075?fromshare=blogdetail&sharetype=blogdetail&sharerId=155804075&sharerefer=PC&sharesource=Drise_&sharefrom=from_link

以下为***《Attention Is All You Need》*** 的transformer结构,本文会对解码器部分进行介绍:

训练过程的作用

之前我们对编码器和解码器在训练过程的操作进行了讲解,那么训练过程对模型有什么作用?

基于论文中的翻译任务,训练过程的作用那就是让模型学会从输入到输出的映射关系,通过优化参数使模型能够准确预测或生成目标序列,也就是让模型 "学会翻译"。

推理过程

推理过程与训练过程的差异

在推理过程的目的是通过源文本推理出目标文本,例如在中英文翻译在,源文本为 "I love you ",目标文本就是 我爱你。

那么推理过程与训练过程有什么相同之处和不同之处呢?

其实推理过程和训练过程大体是一样的,在训练过程我们在编码器部分输入源文本,在解码器部分输入源文本对应的目标文本,但是有两个地方的不同要关注到。

首先是在解码器的token预测的方式不同,在训练过程,从前文我们可以知道,经过一次编码器堆栈可以得到各个位置的目标token的概率,但是在Transformer推理时,必须经过多次解码器堆栈的前向传播,一次只能预测下一个token,也就是说,每次通过一整个解码器堆栈,只能生成一个token,token是串行推理生成的。
第二点是在解码器部分的输入训练和推理过程存在不同,在推理过程我们需要推理出目标文本,并不像训练过程一样存在一个目标文本的正确答案,所以在推理过程中解码器部分的输入是一个空文本,为了辨识开头,最终输入到解码器堆栈的实际上是一个只包含开始token,也就是只包含<s>的token序列。

如此沿用训练过程编码器和解码器**处理模式,**我们就可以推理得到每一个目标token,再转换为目标文本即可。

相关推荐
code_pgf12 小时前
Qwen2.5-VL 算法解析
人工智能·深度学习·算法·transformer
菜鸟‍14 小时前
【论文学习】Transformer中的数据流动
深度学习·学习·transformer
高洁0114 小时前
大模型在天文科研中的应用:天体数据分析
人工智能·深度学习·数据挖掘·transformer·知识图谱
葫三生1 天前
《论三生原理》系列:文化自信、知识范式重构与科技自主创新的思想运动源头?
大数据·人工智能·科技·深度学习·算法·重构·transformer
AI即插即用1 天前
即插即用系列 | SCTNet: 协同CNN与Transformer,池化注意力融合的高光谱图像分类网络
人工智能·深度学习·计算机视觉·分类·cnn·transformer
Raink老师1 天前
【AI面试临阵磨枪】详细解释 Transformer 架构的核心组件与工作流程。
人工智能·深度学习·transformer·ai 面试·ai 应用开发
【建模先锋】2 天前
卷积网络(视觉模型)发展史:从 CNN 到 Vision Transformer,再到视觉 Mamba 的主干演化全景图
网络·人工智能·深度学习·cnn·transformer·轴承故障诊断
码农的神经元2 天前
CEEMDAN-VMD-Transformer-CNN-BiLSTM 时间序列预测模型完整实战:从双重分解到混合神经网络建模
神经网络·cnn·transformer
盼小辉丶2 天前
视觉Transformer实战 | Swin Transformer详解与实现
深度学习·计算机视觉·transformer
高洁013 天前
大模型微调进阶:多任务微调实战
人工智能·python·深度学习·机器学习·transformer