LlaMA_Factory实战微调VL大模型

VL微调数据格式文件样例如下

一:微调数据集准备

1、制作微调数据集

首先找到data文件夹下方的mllm_demo.json,确认微调VL模型时的数据格式模板,然后按照模板,制作对应的指令微调数据集。

2、确认微调模型认知

打开identity.json文件,修改模型初步认知,确认微调后模型的名称和开发者,如下。

3、进入dataset_info.json,添加数据集,修改文件夹名称和对应标注json文件名即可

复制代码
"****_vl_data(图片文件夹名称)": {
    "file_name": "****_vl_data.json(对应的json文件名称)",
    "formatting": "sharegpt",
    "columns": {
      "messages": "messages",
      "images": "images"
    },
    "tags": {
      "role_tag": "role",
      "content_tag": "content",
      "user_tag": "user",
      "assistant_tag": "assistant"
    }
  }

二:启动训练

1、先下载模型文件

2、web端启动命令

复制代码
llamafactory-cli webui

配置参数

启动训练后使用显存大小:50924MiB≈49.7G(这个有大佬知道正常吗,7B参数按照这个训练要这么大的显存?),共143条数据,15Epoch所用时间为:40min

训练曲线如下所示

但是感觉没怎么收敛啊,准备在加几轮训练一下

修改参数:参数部分可参照该链接,说的很详细

https://blog.csdn.net/qq_62223405/article/details/149500255?fromshare=blogdetail\&sharetype=blogdetail\&sharerId=149500255\&sharerefer=PC\&sharesource=weixin_42225889\&sharefrom=from_link

在15个epoch时模型训练稳定

中断训练,然后导出模型文件进行测试,完成训练

二:增加到一共300条数据,使用3B进行训练

配置如下

占用显存大小为:32364MiB≈31.6G

用时40分钟达到稳定,,epoch=12左右,中断测试

相关推荐
ECHO飞跃 0125 天前
Unity2019 本地推理 通义千问0.5-1.5B微调导入
人工智能·深度学习·unity·llama
黑白极客5 天前
ACP大模型认证刷题工具开源,助力高效备考
java·ai·github·llama·认证
迷之程序员5 天前
llama-cpp-python用法,模型加载gpu踩坑全记录
开发语言·python·llama
~kiss~6 天前
Ollama 底层的 llama.cpp 和 GGUF
llama
小雨中_7 天前
4.1 Megatron-LM:千卡级集群预训练的“硬核”框架
人工智能·python·深度学习·机器学习·llama
重生之我要成为代码大佬7 天前
AI框架设计与选型
人工智能·langchain·大模型·llama·qwen
小雨中_8 天前
4.1 LLaMA 系列:从 LLaMA-1 到 LLaMA-3
人工智能·python·深度学习·机器学习·自然语言处理·llama
l1t10 天前
DeepSeek总结的llama.cpp使用说明
llama
爱跑步的程序员~13 天前
SpringBoot集成SpringAI与Ollama本地大模型
java·后端·spring·ai·llama·springai
向量引擎小橙15 天前
视觉艺术的“奇点”:深度拆解 Gemini-3-Pro-Image-Preview 绘画模型,看这只“香蕉”如何重塑 AI 创作逻辑!
人工智能·python·gpt·深度学习·llama