Datawhale Happy-LLM 课程 task 4:Encoder-Decoder

Datawhale Happy-LLM 课程 task 4:Encoder-Decoder

  • [Seq2Seq 模型](#Seq2Seq 模型)
  • 参考

此博客为Datawhale 组队学习打卡笔记


Seq2Seq 模型

  • 机器翻译任务即是一个经典的 Seq2Seq 任务
  • 一般的思路是进行编码再解码
  • Transformer 由 Encoder 和 Decoder 组成,每一个 Encoder(Decoder)又由 6个 Encoder(Decoder)Layer 组成。
  • Encoder 和 Decoder 内部传统神经网络的经典结构------前馈神经网络(FNN)、层归一化(Layer Norm)和残差连接(Residual Connection),然后进一步分析 Encoder 和 Decoder 的内部结构。

参考

1\]

相关推荐
时序之心15 小时前
时序前沿:CNN结合Transformer,通过通道-头绑定实现多变量时序插补!
人工智能·transformer·时间序列
秒云15 小时前
MIAOYUN | 每周AI新鲜事儿 260430
人工智能·ai·语言模型·aigc·ai编程
帅次16 小时前
Android AI 面试速刷版
人工智能·深度学习·神经网络·机器学习·语言模型·自然语言处理·数据分析
西西弗Sisyphus16 小时前
从零实现Transformer:第 2 部分 - 缩放点积注意力(Scaled Dot-Product Attention)
transformer·attention·注意力机制·注意力
Zzj_tju16 小时前
大语言模型技术指南:RAG 为什么能补知识盲区?检索、切块、重排与生成参数详解
人工智能·语言模型·自然语言处理
Maiko Star17 小时前
SSE流式输出
大模型·sse·springai·流式输出
小超同学你好17 小时前
OpenClaw 深度解析与源代码导读 · 第10篇:多 Agent 核心(agents.list、bindings 与隔离边界的可验证机制)
人工智能·深度学习·语言模型·transformer
机器学习之心17 小时前
IGWO-Transformer模型回归+SHAP分析+新数据预测+多输出!深度学习可解释分析(附MATLAB代码)
深度学习·回归·transformer·shap分析·igwo
renhongxia118 小时前
AI技术分享:如何做好职场内部技术培训
人工智能·安全·docker·语言模型·容器
code_pgf18 小时前
OpenPI / π₀ 系列算法详解、创新点及 Jetson Orin NX 16GB 边缘端部署
人工智能·transformer·agi·palm