联想Y7000+4060显卡+16G内存+ubuntu22.04微调Qwen2.5-VL-2B

主要参考的链接:https://juejin.cn/post/7439169215133597759

遇到的坑:

1、我的电脑是CUDA12.4,此时需要用python3.10,torch的安装用下面的命令:

conda install pytorch==2.5.0 torchvision==0.20.0 torchaudio==2.5.0 pytorch-cuda=12.4 -c pytorch -c nvidia

2、训练时,由于显存不够,需要修改配置参数:

python 复制代码
val_config = LoraConfig(
    task_type=TaskType.CAUSAL_LM,
    target_modules=["q_proj", "k_proj", "v_proj", "o_proj", "gate_proj", "up_proj", "down_proj"],
    inference_mode=True,  # 训练模式
    r=4,#64,  # Lora 秩
    lora_alpha=1,#16,  # Lora alaph,具体作用参见 Lora 原理
    lora_dropout=0.05,  # Dropout 比例
    bias="none",
)

如上面所示修改,需要修改train.py中的2个地方,还有下面的部分

python 复制代码
# 设置SwanLab回调
swanlab_callback = SwanLabCallback(
    project="Qwen2-VL-finetune",
    experiment_name="qwen2-vl-coco2014",
    config={
        "model": "https://modelscope.cn/models/Qwen/Qwen2-VL-2B-Instruct",
        "dataset": "https://modelscope.cn/datasets/modelscope/coco_2014_caption/quickstart",
        "github": "https://github.com/datawhalechina/self-llm",
        "prompt": "COCO Yes: ",
        "train_data_number": len(train_data),
        "lora_rank": 4, #64,
        "lora_alpha": 1,#16,
        "lora_dropout": 0.1,
    },
)

然后就可以运行起来了。结果如下截图:

相关推荐
zhangfeng11337 分钟前
deepseek部署和训练的PyTorch CUDA Transformers Accelerate PEFT稳定版本呢推荐
人工智能·pytorch·python
乾元10 分钟前
暗网情报:自动化采集与情感分析在威胁狩猎中的应用
运维·网络·人工智能·深度学习·安全·架构·自动化
翱翔的苍鹰26 分钟前
当前主流的**开源大语言模型(LLM)的核心知识总结
人工智能·深度学习·自然语言处理
Polaris_T31 分钟前
2本9硕AI人实习&秋招分享(回江苏版)
人工智能·经验分享·深度学习·求职招聘
翱翔的苍鹰1 小时前
法律问答机器人”技术方案”的实现
人工智能·rnn·深度学习·自然语言处理
m0_603888711 小时前
Structured Over Scale Learning Spatial Reasoning from Educational Video
人工智能·深度学习·机器学习·ai·论文速览
HyperAI超神经1 小时前
【TVM教程】设备/目标交互
人工智能·深度学习·神经网络·microsoft·机器学习·交互·gpu算力
Tadas-Gao1 小时前
大模型幻觉治理新范式:SCA与[PAUSE]注入技术的深度解析与创新设计
人工智能·深度学习·机器学习·架构·大模型·llm
查无此人byebye1 小时前
从零解读CLIP核心源码:PyTorch实现版逐行解析
人工智能·pytorch·python·深度学习·机器学习·自然语言处理·音视频
Mr. zhihao1 小时前
从 Word2Vec 到 Transformer:Attention 是如何被“逼出来的”?
人工智能·transformer·word2vec