机器学习-多模态大模型(MLLM)

链接:【机器学习大模型-多模态】原理及实操串讲,最好的多模态大模型教程来了,1小时讲透多模态大模型,看完全面理解!机器学习-计算机视觉-人工智能_哔哩哔哩_bilibili

1、clip

1、原始数据网页爬取来的,有噪声,没有进行处理,是弱对齐

2、只有对角线是对齐的,是正样本,其余为负样本。

2、blip

1、相对于clip,增加了自然语言生成能力。

2、先给图片分块编码器得到包含图片特征的向量

3、三塔模型。结构相似的模型跑了三次,颜色相同的模块共享参数。

4、cross attention?

5、ITC(对比学习)

6、ITM(二分类任务)最重要的是构建负样本,如果负样本太过于简单,比如图是小女孩,文字描述是一个动物,那么对于模型来说太过于简单,它能力得不到提高。那么解决办法有,把分类错误的样本整理为负样本,因为分错了说明是比较难的。

下图是bootstrap对于弱监督数据的一个清洗。

3、blip2

4、visualglm支持图像、中英文的多模态对话模型解读与本地化部署

5、VideoGLaMM

mbzuai-oryx/VideoGLaMM: A Large Multimodal Model for Pixel-Level Visual Grounding in Videos

VideoGLaMM 是一种大型视频多模态视频模型,能够实现像素级视觉接地。该模型响应来自用户的自然语言查询,并在其生成的文本响应中交织时空对象掩码,以提供对视频内容的详细理解。VideoGLaMM 无缝连接三个关键组件:大型语言模型 (LLM);双视觉编码器;以及时空像素解码器。双视觉编码器分别提取空间和时间特征,这些特征共同传递给 LLM 以输出富含空间和时间线索的响应。这可以通过对我们提出的基准接地对话生成 (GCG) 数据集进行端到端训练来实现,该数据集具有 38k 视频 QA 三元组、87k 对象和 671k 细粒度掩码。

6、LLM2CLIP:该模型使用LLM的能力来提高CLIP的表现,通过结合LLM的语义理解和CLIP的视觉特征提取能力,实现了更高效的多模态信息融合和处理。

7、TAP-VL:这是一个将OCR视为单独模态的视觉理解大模型,能够高效地处理文本和图像信息,特别是在视觉问答(VQA)等任务中表现出色。

8、Mixture-of-Transformers(MoT):这是一个稀疏的多模态transformer架构,用于减少pretraining阶段的计算消耗,提高了模型的训练效率和性能。

9、BendVLM:该模型在测试时能够减少visual embedding bias,提高了多模态模型的泛化能力和准确性。

相关推荐
柯南小海盗2 小时前
大模型GPU选型与部署资源评估完全指南:从RTX 4090到H20,从vLLM到SGLang
语言模型·vllm·sglang
renhongxia13 小时前
学习如何聚合零样本大型语言模型代理以进行企业披露分类
学习·语言模型·分类
Dway3 小时前
范数-归一化
人工智能·深度学习·机器学习·范数·l2归一化
lifallen3 小时前
Agent plantask 的架构推导
人工智能·语言模型·架构
程序媛小鱼4 小时前
InstructGPT:通过人类反馈训练语言模型以遵循指令(RLHF完整指南,小白也可轻松掌握)
人工智能·语言模型·自然语言处理
*JOKER4 小时前
混合精度训练AMP&master-sweight&Loss Scaling
人工智能·深度学习·机器学习·混合精度训练·amp
当交通遇上机器学习4 小时前
IEEEICDE2025 | TimeKD:融合大语言模型与知识蒸馏的时间序列预测方法
人工智能·深度学习·机器学习·计算机视觉·语言模型
泰恒4 小时前
双阶段目标检测是什么?有什么用?
人工智能·深度学习·机器学习
路小雨~5 小时前
机器学习基础算法学习笔记
学习·算法·机器学习