2025秋招NLP算法面试真题(十一)-Transformer的并行化

正文

本文主要谈一下关于 Transformer的并行化。文章比较短,适合大家碎片化阅读。

Decoder不用多说,没有并行,只能一个一个的解码,很类似于RNN,这个时刻的输入依赖于上一个时刻的输出。

对于Encoder侧:

首先,6个大的模块之间是串行的,一个模块计算的结果做为下一个模块的输入,互相之前有依赖关系。

从每个模块的角度来说,注意力层和前馈神经层这两个子模块单独来看都是可以并行的,不同单词之间是没有依赖关系的。

当然对于注意力层在做attention的时候会依赖别的时刻的输入,不过这个只需要在计算之前就可以提供。

然后注意力层和前馈神经层之间是串行,必须先完成注意力层计算再做前馈神经层。

有点绕,不知道有没有讲清楚。

简单讲,就是6个encoder之间是串行,每个encoder中的两个子模块之间是串行,子模块自身是可以并行的。

系列总结

整个Transformer这一块基本就是讲完了,基本上可以解决之前那个关于transformer面试题百分之八十的题目。

至于剩下的题目会放在之后别的模块去讲,比如 wordpiece model 会在总结机器翻译知识点的时候写一下,然后 GPT 会在总结词向量知识点的时候写一下。

写这个系列过程中,很多朋友也有私信我一些问题,交流过程中,对我自己帮助也很大,能回答的问题我都尽力回答了,也感谢大家的关注。平时工作挺忙的,尽量输出干货,也欢迎大家和我交流问题。

相关推荐
老鱼说AI8 分钟前
大模型面试第二期:层归一化篇
人工智能·深度学习·神经网络·机器学习·语言模型·自然语言处理·chatgpt
xlp666hub13 分钟前
嵌入式 Linux 启动:设备树的加载、传递和解析全流程分析
linux·面试
程序员库里18 分钟前
TipTap简介
前端·javascript·面试
小涛不学习23 分钟前
WebSocket 技术详解(原理 + 使用 + 面试总结)
websocket·网络协议·面试
AI人工智能+35 分钟前
融合计算机视觉与自然语言处理的特种行业许可证识别技术,解决传统人工录入的效率瓶颈
人工智能·计算机视觉·自然语言处理
马士兵教育41 分钟前
程序员空窗期如何解决?
人工智能·面试·职场和发展
草履虫建模42 分钟前
面试常问 SQL 优化八股文总结:慢查询、索引失效、回表、覆盖索引一次搞懂
java·数据库·spring boot·sql·面试·职场和发展·数据库架构
机器学习之心1 小时前
基于Transformer编码器的锂电池健康状态估计(电池SOH预测,NASA数据集)MATLAB代码,MATLAB代码
matlab·transformer·电池soh预测·锂电池健康状态估计·nasa数据集
小陈phd1 小时前
多模态大模型学习笔记(十四)——transformer学习之Self-Attention
人工智能·自然语言处理·transformer
无名-CODING2 小时前
Tomcat 底层核心知识点字典(面试必备)
java·面试·tomcat