transformer理解

1.gpt基于transformer(本质是加权求和) 基于注意力机制

2.注意力机制是为了编解码服务的

3.编码解码中的码是"剥离了英语中文这种类别之外的单纯的语义关系",比如香蕉的语义相近的就应该是猴子,黄色,无论中文还是英语,都是这样的语义关系

4.tokenizer(分词器)和one hot(独热编码)对最基础的语义单元(字母/单词)(token)数字化

分词器:很难表达出复杂的语义关系;独热编码:所有的token都是一个独立的,很难体现之间的语义关系

5.潜空间:找到这个潜空间(一个方法是升维,一个是对独热编码降维)

6.神经网络中的隐藏层,神经网络实现非线性变化,神经网络实现升维和降维

  1. 编码就是将文本里面的token编成独热码,然后进行降维,相当于把输入的一句话根据语义投射到一个潜空间里,高维---->低维,这个过程叫embedding,也就是嵌入,这个过程也叫做词嵌入,因为使用的是矩阵乘法,所以将token投入到潜空间的矩阵叫做嵌入矩阵

然后根据潜空间进行翻译等各种处理(我的理解就是将各种输入,无论英文汉语,都提取出来,形成一个只包含纯粹的语义关系的潜空间)

NLP里每个维度对应的是基础语义,图片里对应的是通道(三色)

8.如何找到实现降维的嵌入矩阵?

Word2Vec(结果是得到嵌入矩阵),不需要激活函数

9.利用CBOW去评估得到word2vec(合力,分力)

10.利用skip-gram去评估得到word2vec(已知一个token,推断上下文token,然后判断对不对,和cbow相反)

11.对于词和词组合后的理解靠的就是注意力机制(transformer的核心)

注意力机制输入的是一组词向量,注意力机制要解决美女,让一让和美女,加一下微信,这种上下文对美女美丽程度的影响

A'上下文关联的修改系数

12.选择两个矩阵相乘Wq,Wk是为了让模型可以表达更复杂的情况

13.注意力机制:从一个多义词中,比如苹果,选择一个表达

14.自注意力机制,交叉注意力(做翻译比较ok)

15.训练过程

16.有的大模型只用解码器,编码器

17.相对位置编码:为了保证的token的先后顺序,在并行计算的同时

18.多头注意力机制:比卷积神经网络更好,可以跨越,结果更灵活,transformer叠加了很多层

19.掩码

文章来源于从编解码和词嵌入开始,一步一步理解Transformer,注意力机制(Attention)的本质是卷积神经网络(CNN)_哔哩哔哩_bilibili

相关推荐
2501_942191771 分钟前
【深度学习应用】香蕉镰刀菌症状识别与分类:基于YOLO13-C3k2-MBRConv5模型的实现与分析
人工智能·深度学习·分类
Coder_Boy_1 分钟前
基于SpringAI的在线考试系统-DDD(领域驱动设计)核心概念及落地架构全总结
java·大数据·人工智能·spring boot·架构·ddd·tdd
AI小怪兽2 分钟前
YOLO26:面向实时目标检测的关键架构增强与性能基准测试
人工智能·yolo·目标检测·计算机视觉·目标跟踪·架构
知乎的哥廷根数学学派9 分钟前
基于卷积特征提取和液态神经网络的航空发动机剩余使用寿命预测算法(python)
人工智能·pytorch·python·深度学习·神经网络·算法
高洁019 分钟前
AIGC技术与进展(2)
人工智能·python·深度学习·机器学习·数据挖掘
岑梓铭11 分钟前
YOLO深度学习(计算机视觉)—毕设笔记(yolo训练效率加快)
人工智能·笔记·深度学习·神经网络·yolo·计算机视觉
Nautiluss14 分钟前
一起调试XVF3800麦克风阵列(十六)
人工智能·单片机·音频·语音识别·dsp开发·智能硬件
AI街潜水的八角16 分钟前
基于深度学习神经网络YOLOv4目标检测的汽车车牌识别系统
深度学习·神经网络·yolo
人工智能AI技术17 分钟前
安卓AI智能体开发实战:基于AndroidGen-GLM搭建手机端超级助理,支持离线运行
人工智能
指掀涛澜天下惊21 分钟前
概率论 - 贝叶斯定理
人工智能·机器学习·概率论·贝叶斯定理·贝叶斯公式