Large-Vision-Language-Models-LVLMs--info:deepseek-vl模型

LVLMs-info: Deepseek-VL

  • deepseek-vl
    • paper: https://arxiv.org/abs/2403.05525, code: https://github.com/deepseek-ai/DeepSeek-VL
    • 模型基本结构:基本和Qwen-VL一样,三部分,a hybrid vision encoder, a vision adaptor, and a language model(LLM)
      • hybrid vision encoder
        • 使用SigLIP处理低分辨率的图像(384x384), SAM-B处理高分辨率图像(1024x1024),分别能够得到hxwxD的feature map
      • vision adaptor
        • 处理由hybrid vision encoder送过来的feature map
        • 具体来说,先将feature map上采用2倍并输入两层卷积,随后将feature map拉直,得到NxD维特征(类似token),在论文中每个feature map处理后都得到576x1024的token,最后将两种token在通道维度拼接得到576x2048的visual token
        • 最后使用一层GELU+MLP做embedding,作为LLM的输入
      • LLM
        • 使用DeepSeek LLM,包括1B和7B
    • 训练阶段:和Qwen-VL一样分为三个阶段训练
      • stage 1: Training VL Adaptor
        • 对vision adaptor进行训练,其他部分均frozen,相当于固定视觉和文本编码器,训练两者的融合模块。这里有一点可以关注,VLA的参数量很少,scaling law几乎无效,甚至会起到反作用,因此在这个阶段没有用很多数据进行调整
      • stage 2: Joint VL Pre-training
        • 对除了hybrid vision encoder外的所有参数进行调整,主要用来训练模型的多模态能力。在这个阶段需要谨慎的控制好用于训练的text-image和text数据的比率,否则会造成模型的language能力下降
      • stage 3: Supervised Finetuning
        • 全参数调整(但frozen SAM-B,显存限制)
    • 数据部分:通常的处理,划分为pretraining dataset和fine-tuning dataset
      • pretraining dataset主要由一些比较杂的数据构成(论文table 1),主要参与训练的stage1
      • fine-tuning dataset数据比较干净,包括LAION等,主要参与训练的stage3
      • 两者共同参与训练的stage2
    • 重要的点(个人)
      • 高质量图像数据(1024x1024), hybrid vision encoder
      • modality warm-up,逐步增加text-image数据,初始保持纯text数据在训练过程中占主导,防止模型language能力出现degradation问题
      • 论文中的性能对比上,基本能干过当时的开源LVLMs,但和GPT4-v有差距
相关推荐
劲墨难解苍生苦5 分钟前
spring ai alibaba mcp 开发demo
java·人工智能
程序员霸哥哥21 分钟前
从零搭建PyTorch计算机视觉模型
人工智能·pytorch·python·计算机视觉
草莓熊Lotso37 分钟前
Linux 基础开发工具入门:软件包管理器的全方位实操指南
linux·运维·服务器·c++·人工智能·网络协议·rpc
IT_陈寒1 小时前
Vue 3性能优化实战:7个关键技巧让我的应用加载速度提升50%
前端·人工智能·后端
【赫兹威客】浩哥1 小时前
基于 YOLO11+PyQt6+OpenCV 的智能水果检测系统设计与实现
人工智能·opencv·计算机视觉
RPA机器人就用八爪鱼1 小时前
RPA:企业数字化转型的高效自动化利器
人工智能
程序员-小李1 小时前
基于PyTorch的动物识别模型训练与应用实战
人工智能·pytorch·python
掘金安东尼1 小时前
AI 生成代码,从 Copilot 到 Claude Code 的全景测评
人工智能
说私域1 小时前
基于开源链动2+1模式AI智能名片S2B2C商城小程序的赛道力构建与品牌发展研究
人工智能·小程序
喜欢吃豆2 小时前
llama.cpp 全方位技术指南:从底层原理到实战部署
人工智能·语言模型·大模型·llama·量化·llama.cpp