3090微调多模态模型Qwen-VL踩坑

本人使用记录一下训练过程中的心得和bug

1.数据集准备

数据集的标签形式见官方readme,如下:

bash 复制代码
[
  {
    "id": "identity_0",
    "conversations": [
      {
        "from": "user",
        "value": "你好"
      },
      {
        "from": "assistant",
        "value": "我是Qwen-VL,一个支持视觉输入的大模型。"
      }
    ]
  },
  {
    "id": "identity_1",
    "conversations": [
      {
        "from": "user",
        "value": "Picture 1: <img>https://qianwen-res.oss-cn-beijing.aliyuncs.com/Qwen-VL/assets/demo.jpeg</img>\n图中的狗是什么品种?"
      },
      {
        "from": "assistant",
        "value": "图中是一只拉布拉多犬。"
      },
      {
        "from": "user",
        "value": "框出图中的格子衬衫"
      },
      {
        "from": "assistant",
        "value": "<ref>格子衬衫</ref><box>(588,499),(725,789)</box>"
      }
    ]
  },
  { 
    "id": "identity_2",
    "conversations": [
      {
        "from": "user",
        "value": "Picture 1: <img>assets/mm_tutorial/Chongqing.jpeg</img>\nPicture 2: <img>assets/mm_tutorial/Beijing.jpeg</img>\n图中都是哪"
      },
      {
        "from": "assistant",
        "value": "第一张图片是重庆的城市天际线,第二张图片是北京的天际线。"
      }
    ]
  }
]

可以训练纯文本,文本+图,文本+多图(中英文皆可,路径最好绝对路径).将该文件存为label.json.之后进入finetune_qlora_single_gpu.sh将最上面的DATA设置为json文件的路径:

bash 复制代码
DATA="./label.json"

之后运行finetune_qlora_single_gpu.sh即可开始训练.可以在finetune_qlora_single_gpu.sh中修改epoch参数.3090只能使用qlora微调,多卡训练还没有弄明白.

2.运行报错:"erfinv_vml_cpu" not implemented for 'Half'

见:https://github.com/QwenLM/Qwen-VL/issues/76#issuecomment-1731020993

3.mpi4py安装失败

见:https://blog.csdn.net/weixin_43255962/article/details/103681400

4.auto-gptq安装失败

从源码安装,即:

bash 复制代码
pip install auto-gptq --extra-index-url https://huggingface.github.io/autogptq-index/whl/cu118/

5.[未解决]两张卡分别采用finetune_qlora_single_gpu.sh训练两个任务报错:

bash 复制代码
RuntimeError: The server socket has failed to listen on any local network address. The server socket has failed to bind to [::]:29500 (errno: 98 - Address already in use). The server socket has failed to bind to ?UNKNOWN? (errno: 98 - Address already in use).

问题已经提交github issue: https://github.com/QwenLM/Qwen-VL/issues/187:

其他问题会继续更新,总的来看Qwen-VL比VisualGLM更强.

相关推荐
努力还债的学术吗喽28 分钟前
【速通】深度学习模型调试系统化方法论:从问题定位到性能优化
人工智能·深度学习·学习·调试·模型·方法论
伊织code1 小时前
PyTorch API 6
pytorch·api·ddp
大千AI助手1 小时前
GitHub Copilot:AI编程助手的架构演进与真实世界影响
人工智能·深度学习·大模型·github·copilot·ai编程·codex
铁锚3 小时前
在MAC环境中安装unsloth
人工智能·python·macos·语言模型
学行库小秘3 小时前
基于门控循环单元的数据回归预测 GRU
人工智能·深度学习·神经网络·算法·回归·gru
范男4 小时前
基于Pytochvideo训练自己的的视频分类模型
人工智能·pytorch·python·深度学习·计算机视觉·3d·视频
聚客AI5 小时前
🧠深度解析模型压缩革命:减枝、量化、知识蒸馏
人工智能·深度学习·llm
SHIPKING3935 小时前
【机器学习&深度学习】Ollama、vLLM、LMDeploy对比:选择适合你的 LLM 推理框架
人工智能·深度学习·机器学习
coding者在努力6 小时前
深度学习核心技巧
人工智能·深度学习
yzx9910136 小时前
从机器视觉到图像识别:计算机视觉的多维探索
人工智能·深度学习·机器学习