transformer与神经网络

一.神经网络

1.卷积神经CNN:适合处理图像,计算机视觉领域

2.循环神经RNN:存储序列数据,记住过去的信息应用到当前处理过程中,序列不能太长

3.长短时记忆网络LSTM:特殊的RNN,RNN的改进版本,能够更好捕捉长距离依赖关系

4.transformer

(1)并行计算

(2)捕捉长距离依赖

(3)可扩展性

(4)灵活性和效果

二.transformer工作原理

1.原理图

2.Transformer模型的生成过程可以分为以下4****个步骤:

(1)分词(Tokenization):token大模型中的最基本的处理单元

1)把汉字拆成积木(从前 / 国王 / 女儿)

(2)词嵌入(Embedding):矩阵计算

(3)注意力机制(Attention Mechanism):捕捉词之间的关联程度

1) 编码器处理:分析问题,用注意力划重点(国王和女儿的关系等)

2) 解码器处理:边编故事边查表,用注意力确保连贯

(4)最终的内容生成(Content Generation):输出结果

相关推荐
机器学习之心1 小时前
Bayes-TCN-BiLSTM+SHAP分析,贝叶斯优化时间卷积双向长短期网络分类预测可解释性分析!Matlab代码
神经网络·tcn-bilstm·贝叶斯优化·shap分析
AI先驱体验官2 小时前
AI智能体赛道新机遇:2026机会与挑战深度解析
大数据·人工智能·深度学习·重构·aigc
热爱生活的猴子2 小时前
什么情况是训练好验证差,什么情况判定为收敛慢,什么情况下判定为震荡,什么情况下说明是泛化差
人工智能·深度学习·机器学习
li星野3 小时前
GPT工作机制
人工智能·gpt·深度学习
Omics Pro3 小时前
空间组学下一代机器学习与深度学习
大数据·人工智能·深度学习·算法·机器学习·语言模型·自然语言处理
这张生成的图像能检测吗3 小时前
(论文速读)MoECLIP:零射异常检测补丁专家
人工智能·深度学习·计算机视觉·异常检测·clip·zero-shot方法
Rick19934 小时前
Prompt 提示词
人工智能·深度学习·prompt
前端摸鱼匠5 小时前
【AI大模型春招面试题14】前馈网络(FFN)在Transformer中的作用?为何其维度通常大于注意力维度?
网络·人工智能·ai·面试·大模型·transformer
披着羊皮不是狼5 小时前
CNN卷积输出尺寸计算(公式+实例)
人工智能·神经网络·cnn
落痕的寒假5 小时前
[深度学习] 大模型学习7-多模态大模型全景解析
人工智能·深度学习·学习