多模态简单了解

多模态

1.文本编码

简介: 即通过embedding将字符向量化,进入模型即可。

2. ViT图像编码器


释义:

  1. 图片是由一个个像素点构成的,每个像素点是1-255的数,所以图片其实是天然的矩阵。
  2. 将图片切割成单独的小的部分,延展开,就和文本一样是一些序列,通过Patches,embedding成向量,并且加上位置信息position。
  3. 输入到transformer结构的编码器中,encoder。

2.1图像矩阵self-attention计算:

示例图如下:

3.Transformer多模态

简介: 即在图文的两种模态模型中,使用transformer的做法。

3.1CLIP 图文交互


释义:

  1. 即将图片和文本分布输入各自得编码器得到向量。
  2. 将图片和文本的向量进行相关性计算,这样就可以得到一个图片和文本匹配的模型。

作用: 文搜图的功能,以及得到两个较好的文本、图像编码器。

3.2 对比学习训练


释义:

  1. 通过图像和文本编码器后,得到各个样本的数据
  2. 进行图像和文本的关系计算,这里每一个图片都只有一个正样本,其他的都是负样本,可以得到一个区分识别图片内容的模型。

3.3 flamingo 图文交互


释义:

  1. 通过self-attention计算文本和图片中的关系时,将文本输入作为Q;图像输入作为K、V计算

示意图:

3.4 LLava 图文交互


释义: 即将文本和图像内容拼接在一起送入到self-attention中,即计算图片与图片、文本与文本、还包括图片与文本之间的关系。

相关推荐
智算菩萨1 天前
【Python机器学习】主成分分析(PCA):高维数据的“瘦身术“
开发语言·python·机器学习
一条大祥脚1 天前
26.1.1
数据结构·算法
csuzhucong1 天前
圆柱三阶魔方、六棱柱魔方
算法
mit6.8241 天前
vector<int> dfs
算法
_codemonster1 天前
BERT和Transformer的双向性理解
人工智能·bert·transformer
十铭忘1 天前
SAM2跟踪的理解19——位置编码
人工智能·深度学习·计算机视觉
张二娃同学1 天前
深度学习入门篇——Github的使用和项目的导入
人工智能·git·深度学习·开源·github
一个处女座的程序猿O(∩_∩)O1 天前
transformer模型:彻底改变AI格局的革命性架构
人工智能·深度学习·transformer
540_5401 天前
ADVANCE Day33
人工智能·python·机器学习
水龙吟啸1 天前
基于Orbbec-Gemini深度相机与SFM-2D to 3D重建算法、手部识别视觉算法、Unity运动控制的3D水果切割游戏
python·深度学习·神经网络·c#·游戏引擎·3d视觉·3d重建