Vision Transformer

按照往常我们的想法transformer,Bert等模型都只能用来做NLP的问题,很少有人能去想做CV的问题,但是Vit的出现,打破了常规的认识,让我们知道了其实NLP和CV是没有界限的,只是技术的落后,把我们的想法限制住了。

BERT模型的提出是用来做NLP的,通过BERT模型可以学习句子的语义,当然BERT的模型调用,输出有两个一个就是语义向量,另一个就是句子中所有token向量,那么语义向量是怎么表示的呢?BERT在进行句子编码时,会自动在句子头部添加[CLS],注意这个是不用我们自己添加的,[CLS]所表示的向量是整个句子的语义向量,很神奇吧!

那么在使用transformer怎么处理图片呢?或者怎么做目标检测的任务呢?

我们可以把图片进行分割,那么每一个图片的像素点其实可以看做是像素矩阵,在通过encoder进行权重计算时可以形成该图像切片对应的向量(比如像素矩阵128*400乘以权重向量400*1,则变为了图像切片向量),当然该切片只表示原图片的一部分,我们可以使用position向量代表切片在原图片中的位置,将两个向量拼接(对应位置加运算)形成一个新等我向量作为切片向量。那么切片对应了token(单词),图片应该对应句子了吧!句子有语义向量,那应该不止切片有向量,图片也应该有吧,没错下图0号位置表示的就是图片向量,和[CLS]很相似。

所以NLP的问题解决方案也可以推广到CV

相关推荐
彼岸花开了吗17 小时前
构建AI智能体:六十六、智能的边界:通过偏差-方差理论理解大模型的能力与局限
人工智能·python
AlanHou17 小时前
Dify、n8n 还是 Coze?万字长文解析三大主流 AI Agent 平台
人工智能·agent
未知原色17 小时前
前端工程师转型AI的优势与挑战
前端·人工智能
白日做梦Q17 小时前
生成式AI的底层逻辑:GAN、VAE与扩散模型的对比及研究切入点
人工智能·深度学习·机器学习
白日做梦Q17 小时前
深度学习可解释性研究综述:从特征可视化到因果推理
人工智能·深度学习
AI科技星17 小时前
宇宙的像素:真空中一点如何编码无限星光
数据结构·人工智能·算法·机器学习·重构
Σίσυφος190017 小时前
PnP和P3P详解与Matlab 实现
人工智能·计算机视觉
CP-DD17 小时前
训练可以正常开始 一到 Validation 就直接炸 a PTX JIT compilation failed
python·深度学习·计算机视觉
TG:@yunlaoda360 云老大18 小时前
如何确保华为云国际站代理商的服务可用性?
数据库·人工智能·华为云
liliangcsdn18 小时前
DDPM前向加噪过程详细推导
人工智能·算法·机器学习