微调Chinese-clip

1.搭建环境

git clone https://github.com/OFA-Sys/Chinese-CLIP.git

mkdir clip-data,和Chinese-CLIP文件夹同一级

conda create -n cn-clip python==3.10

conda activate cn-clip

cd /data/Chinese-CLIP/

pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple

2.数据模型准备

下载模型:

下载模型可以根据官方的指定地址下载,这次我们微调的是基础版本的也就是clip-cn-vit-b-16.pt, clip-data/pretrained_weights

https://github.com/OFA-Sys/Chinese-CLIP?tab=readme-ov-file#模型规模--下载链接

下载数据:

https://clip-cn-beijing.oss-cn-beijing.aliyuncs.com/datasets/MUGE.zip

这里面是标准的数据集格式,文件名是这个数据集的名字,将它放在clip-data/datasets目录下,并解压

修改脚本

使用run_scripts/muge_finetune_vit-b-16_rbt-base.sh这个基础版的脚本

主要是单卡或者多卡训练参数配置以及相关参数设置,batchsize lr这些等:

3.训练

执行命令,将这个进程挂到后台

nohup bash run_scripts/muge_finetune_vit-b-16_rbt-base.sh /home/fsy23/CSDN/clip-data/ > train.log 2>&1 &

训练日志我们可以通过两个地方看到,一个是我们自己在命令行指定的 train.log,一个是官方的指定目录。我们打开log

可能会出现报错:

修改:

在训练脚本里面,

在在cn_clip/training/params.py里面也要修改

还需要在cn_clip/training/main.py脚本里面修改一下,一共6处

重新运行一下脚本命令:

bash run_scripts/muge_finetune_vit-b-16_rbt-base.sh /data/LLM/clip-data/

单卡训练:

开始训练:

相关推荐
bryant_meng1 分钟前
【Depth Estimation】learning notes
人工智能·深度学习·计算机视觉·深度估计·depth anything
大模型实验室Lab4AI1 分钟前
LLaMA-Factory 课程答疑系列一:10个关键问题速查,官方认证解法让训练推理不踩雷
人工智能·llama
Rabbit_QL2 分钟前
【深度学习】Hidden vs Latent:神经网络与概率模型中两个“隐”的本质区别
人工智能·深度学习·神经网络
大模型实验室Lab4AI4 分钟前
多模态赋能情绪理解:Qwen3-VL+LLaMA-Factory 的人脸情绪识别实战
人工智能
Tan_Zhixia10 分钟前
时间复杂度判断
数据结构·c++·算法
亚马逊云开发者17 分钟前
Kiro小应用开发:设计和实现隐私号码
人工智能
HyperAI超神经24 分钟前
【vLLM 学习】vLLM TPU 分析
开发语言·人工智能·python·学习·大语言模型·vllm·gpu编程
AI营销实验室25 分钟前
AI CRM系统线索打分,原圈科技引爆销售增长
人工智能·科技
雪弯了眉梢27 分钟前
OpenGL(八)摄像机(Camera)
算法·图形渲染·opengl
~~李木子~~27 分钟前
基于 MovieLens-100K 数据集的推荐算法设计与实现
算法·机器学习·推荐算法