Large-Vision-Language-Models-LVLMs--info:deepseek-vl模型

LVLMs-info: Deepseek-VL

  • deepseek-vl
    • paper: https://arxiv.org/abs/2403.05525, code: https://github.com/deepseek-ai/DeepSeek-VL
    • 模型基本结构:基本和Qwen-VL一样,三部分,a hybrid vision encoder, a vision adaptor, and a language model(LLM)
      • hybrid vision encoder
        • 使用SigLIP处理低分辨率的图像(384x384), SAM-B处理高分辨率图像(1024x1024),分别能够得到hxwxD的feature map
      • vision adaptor
        • 处理由hybrid vision encoder送过来的feature map
        • 具体来说,先将feature map上采用2倍并输入两层卷积,随后将feature map拉直,得到NxD维特征(类似token),在论文中每个feature map处理后都得到576x1024的token,最后将两种token在通道维度拼接得到576x2048的visual token
        • 最后使用一层GELU+MLP做embedding,作为LLM的输入
      • LLM
        • 使用DeepSeek LLM,包括1B和7B
    • 训练阶段:和Qwen-VL一样分为三个阶段训练
      • stage 1: Training VL Adaptor
        • 对vision adaptor进行训练,其他部分均frozen,相当于固定视觉和文本编码器,训练两者的融合模块。这里有一点可以关注,VLA的参数量很少,scaling law几乎无效,甚至会起到反作用,因此在这个阶段没有用很多数据进行调整
      • stage 2: Joint VL Pre-training
        • 对除了hybrid vision encoder外的所有参数进行调整,主要用来训练模型的多模态能力。在这个阶段需要谨慎的控制好用于训练的text-image和text数据的比率,否则会造成模型的language能力下降
      • stage 3: Supervised Finetuning
        • 全参数调整(但frozen SAM-B,显存限制)
    • 数据部分:通常的处理,划分为pretraining dataset和fine-tuning dataset
      • pretraining dataset主要由一些比较杂的数据构成(论文table 1),主要参与训练的stage1
      • fine-tuning dataset数据比较干净,包括LAION等,主要参与训练的stage3
      • 两者共同参与训练的stage2
    • 重要的点(个人)
      • 高质量图像数据(1024x1024), hybrid vision encoder
      • modality warm-up,逐步增加text-image数据,初始保持纯text数据在训练过程中占主导,防止模型language能力出现degradation问题
      • 论文中的性能对比上,基本能干过当时的开源LVLMs,但和GPT4-v有差距
相关推荐
WBingJ1 分钟前
机器学习基础-贝叶斯分类器
人工智能·算法·机器学习
MichaelIp5 分钟前
LLM大模型RAG内容安全合规检查
人工智能·python·安全·语言模型·自然语言处理·chatgpt·word2vec
夏天是冰红茶15 分钟前
Vision Transformer模型详解(附pytorch实现)
人工智能·深度学习·transformer
deephub18 分钟前
PyTorch Geometric框架下图神经网络的可解释性机制:原理、实现与评估
人工智能·pytorch·神经网络·图神经网络
that's boy23 分钟前
开源模型迎来颠覆性突破:DeepSeek-V3与Qwen2.5如何重塑AI格局?
人工智能·chatgpt·openai·midjourney·claude·deepseek
图初37 分钟前
自动驾驶控制算法-横纵向控制仿真
人工智能·机器学习·自动驾驶
行知SLAM1 小时前
第0章 机器人及自动驾驶SLAM定位方法全解析及入门进阶学习建议
人工智能·算法·机器人·自动驾驶
qq_273900231 小时前
torch.reciprocal介绍
人工智能·pytorch·python·深度学习
青松@FasterAI2 小时前
【NLP高频面题 - 分布式训练篇】ZeRO主要为了解决什么问题?
人工智能·深度学习·自然语言处理·分布式训练·nlp面试
lu_rong_qq2 小时前
【LLM】一文了解 NLP 里程碑模型 BERT
人工智能·自然语言处理·bert