微调Chinese-clip

1.搭建环境

git clone https://github.com/OFA-Sys/Chinese-CLIP.git

mkdir clip-data,和Chinese-CLIP文件夹同一级

conda create -n cn-clip python==3.10

conda activate cn-clip

cd /data/Chinese-CLIP/

pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple

2.数据模型准备

下载模型:

下载模型可以根据官方的指定地址下载,这次我们微调的是基础版本的也就是clip-cn-vit-b-16.pt, clip-data/pretrained_weights

https://github.com/OFA-Sys/Chinese-CLIP?tab=readme-ov-file#模型规模--下载链接

下载数据:

https://clip-cn-beijing.oss-cn-beijing.aliyuncs.com/datasets/MUGE.zip

这里面是标准的数据集格式,文件名是这个数据集的名字,将它放在clip-data/datasets目录下,并解压

修改脚本

使用run_scripts/muge_finetune_vit-b-16_rbt-base.sh这个基础版的脚本

主要是单卡或者多卡训练参数配置以及相关参数设置,batchsize lr这些等:

3.训练

执行命令,将这个进程挂到后台

nohup bash run_scripts/muge_finetune_vit-b-16_rbt-base.sh /home/fsy23/CSDN/clip-data/ > train.log 2>&1 &

训练日志我们可以通过两个地方看到,一个是我们自己在命令行指定的 train.log,一个是官方的指定目录。我们打开log

可能会出现报错:

修改:

在训练脚本里面,

在在cn_clip/training/params.py里面也要修改

还需要在cn_clip/training/main.py脚本里面修改一下,一共6处

重新运行一下脚本命令:

bash run_scripts/muge_finetune_vit-b-16_rbt-base.sh /data/LLM/clip-data/

单卡训练:

开始训练:

相关推荐
张较瘦_5 分钟前
[论文阅读] 人工智能 + 软件工程 | 需求获取访谈中LLM生成跟进问题研究:来龙去脉与创新突破
论文阅读·人工智能
一 铭1 小时前
AI领域新趋势:从提示(Prompt)工程到上下文(Context)工程
人工智能·语言模型·大模型·llm·prompt
顾道长生'2 小时前
(Arxiv-2025)通过动态 token 剔除实现无需训练的高效视频生成
计算机视觉·音视频·视频生成
二进制person4 小时前
Java SE--方法的使用
java·开发语言·算法
麻雀无能为力4 小时前
CAU数据挖掘实验 表分析数据插件
人工智能·数据挖掘·中国农业大学
OneQ6664 小时前
C++讲解---创建日期类
开发语言·c++·算法
时序之心5 小时前
时空数据挖掘五大革新方向详解篇!
人工智能·数据挖掘·论文·时间序列
JoJo_Way5 小时前
LeetCode三数之和-js题解
javascript·算法·leetcode
.30-06Springfield5 小时前
人工智能概念之七:集成学习思想(Bagging、Boosting、Stacking)
人工智能·算法·机器学习·集成学习
说私域6 小时前
基于开源AI智能名片链动2+1模式S2B2C商城小程序的超级文化符号构建路径研究
人工智能·小程序·开源