LlaMA_Factory实战微调VL大模型

VL微调数据格式文件样例如下

一:微调数据集准备

1、制作微调数据集

首先找到data文件夹下方的mllm_demo.json,确认微调VL模型时的数据格式模板,然后按照模板,制作对应的指令微调数据集。

2、确认微调模型认知

打开identity.json文件,修改模型初步认知,确认微调后模型的名称和开发者,如下。

3、进入dataset_info.json,添加数据集,修改文件夹名称和对应标注json文件名即可

复制代码
"****_vl_data(图片文件夹名称)": {
    "file_name": "****_vl_data.json(对应的json文件名称)",
    "formatting": "sharegpt",
    "columns": {
      "messages": "messages",
      "images": "images"
    },
    "tags": {
      "role_tag": "role",
      "content_tag": "content",
      "user_tag": "user",
      "assistant_tag": "assistant"
    }
  }

二:启动训练

1、先下载模型文件

2、web端启动命令

复制代码
llamafactory-cli webui

配置参数

启动训练后使用显存大小:50924MiB≈49.7G(这个有大佬知道正常吗,7B参数按照这个训练要这么大的显存?),共143条数据,15Epoch所用时间为:40min

训练曲线如下所示

但是感觉没怎么收敛啊,准备在加几轮训练一下

修改参数:参数部分可参照该链接,说的很详细

https://blog.csdn.net/qq_62223405/article/details/149500255?fromshare=blogdetail\&sharetype=blogdetail\&sharerId=149500255\&sharerefer=PC\&sharesource=weixin_42225889\&sharefrom=from_link

在15个epoch时模型训练稳定

中断训练,然后导出模型文件进行测试,完成训练

二:增加到一共300条数据,使用3B进行训练

配置如下

占用显存大小为:32364MiB≈31.6G

用时40分钟达到稳定,,epoch=12左右,中断测试

相关推荐
fly五行1 天前
大模型基础入门与 RAG 实战:从理论到 llama-index 项目搭建(有具体代码示例)
python·ai·llama·llamaindex
德育处主任Pro5 天前
前端玩转大模型,DeepSeek-R1 蒸馏 Llama 模型的 Bedrock 部署
前端·llama
relis5 天前
AVX-512深度实现分析:从原理到LLaMA.cpp的性能优化艺术
性能优化·llama
relis7 天前
llama.cpp RMSNorm CUDA 优化分析报告
算法·llama
云雾J视界7 天前
开源革命下的研发突围:Meta Llama系列模型的知识整合实践与启示
meta·开源·llama·知识管理·知识整合·知识迭代·知识共享
丁学文武8 天前
大模型原理与实践:第三章-预训练语言模型详解_第3部分-Decoder-Only(GPT、LLama、GLM)
人工智能·gpt·语言模型·自然语言处理·大模型·llama·glm
余衫马9 天前
llama.cpp:本地大模型推理的高性能 C++ 框架
c++·人工智能·llm·llama·大模型部署
LETTER•13 天前
Llama 模型架构解析:从 Pre-RMSNorm 到 GQA 的技术演进
深度学习·语言模型·自然语言处理·llama
拓端研究室13 天前
JupyterLab+PyTorch:LoRA+4-bit量化+SFT微调Llama 4医疗推理应用|附代码数据
llama
之歆14 天前
LangGraph构建多智能体
人工智能·python·llama