Datawhale Happy-LLM 课程 task 4:Encoder-Decoder

Datawhale Happy-LLM 课程 task 4:Encoder-Decoder

  • [Seq2Seq 模型](#Seq2Seq 模型)
  • 参考

此博客为Datawhale 组队学习打卡笔记


Seq2Seq 模型

  • 机器翻译任务即是一个经典的 Seq2Seq 任务
  • 一般的思路是进行编码再解码
  • Transformer 由 Encoder 和 Decoder 组成,每一个 Encoder(Decoder)又由 6个 Encoder(Decoder)Layer 组成。
  • Encoder 和 Decoder 内部传统神经网络的经典结构------前馈神经网络(FNN)、层归一化(Layer Norm)和残差连接(Residual Connection),然后进一步分析 Encoder 和 Decoder 的内部结构。

参考

1\]

相关推荐
算法狗22 小时前
大模型中哪些模型用到的pre-norm和post-norm技术的?
人工智能·深度学习·机器学习·语言模型·面试题
程序员:钧念2 小时前
深度学习与大语言模型LLM的区别
人工智能·python·深度学习·语言模型·自然语言处理·transformer·agent
学习3人组3 小时前
大模型领域的核心相关名词解释
人工智能·机器学习·语言模型
过期的秋刀鱼!3 小时前
机器学习-正则化线性回归
人工智能·深度学习·机器学习·大模型·线性回归·过拟合和欠拟合·大模型调参
CoderJia程序员甲3 小时前
GitHub 热榜项目 - 日榜(2026-01-18)
人工智能·ai·大模型·github·ai教程
yangpipi-4 小时前
第二章 语言模型基础
人工智能·语言模型·自然语言处理
居7然12 小时前
ChatGPT是怎么学会接龙的?
深度学习·语言模型·chatgpt·性能优化·transformer
山顶夕景13 小时前
【VLM】Format Decoupled Reinforcement Learning for Document OCR
大模型·llm·ocr·多模态·文档智能·vlm
laplace012314 小时前
# 第六章 agent框架开发实践 - 学习笔记
人工智能·笔记·学习·语言模型·agent