LLaMa Factory大模型微调

LLaMa Factory大模型微调

大模型微调

微调自我认知+微调特定领域数据集。

平台&硬件

  • Ubuntu20.04
  • 显卡:M40 24G + 2080TI 22G
  • 微调框架:LLaMA-Factory

LLaMA-Factory安装

SHELL 复制代码
git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git
cd LLaMA-Factory
pip install -e ".[torch,metrics]"

启动项目所提供的webui操作界面(因为我这里有两张型号不一样的显卡,经过测试不能混合训练,因此指定使用单卡2080TI):

SHELL 复制代码
export CUDA_VISIBLE_DEVICES=0
llamafactory-cli webui

URL:http://localhost:7860/

如果报错ValueError: Unknown scheme for proxy URL URL('socks://127.0.0.1:7897/')

解决方案参考解决openai调用出现的valueerror: unknown scheme for proxy url url('socks://127.0.0.1:7890/'),使用下面命令查看系统的代理设置

SHELL 复制代码
env|grep -i proxy

看看有没有出现下面的all_proxy的设置。

SHELL 复制代码
no_proxy=localhost,127.0.0.1,192.168.0.0/16,10.0.0.0/8,172.16.0.0/12,::1
https_proxy=http://127.0.0.1:7897/
NO_PROXY=localhost,127.0.0.1,192.168.0.0/16,10.0.0.0/8,172.16.0.0/12,::1
HTTPS_PROXY=http://127.0.0.1:7897/
HTTP_PROXY=http://127.0.0.1:7897/
http_proxy=http://127.0.0.1:7897/
ALL_PROXY=socks://127.0.0.1:7897/
all_proxy=socks://127.0.0.1:7897/

如果有all_proxy的设置,使用下面命令设置为空就行。(原理未知)

SHELL 复制代码
export ALL_PROXY=''
export all_proxy=''

hfd下载hugging face模型

以Qwen/Qwen2.5-7B-Instruct为例

不确定模型的名字的话,打开链接https://hf-mirror.com/api/models,搜相应的模型名字,比如我这里直接搜Qwen2.5-7B-Instruct,然后得知模型全称是Qwen/Qwen2.5-7B-Instruct

shell 复制代码
sudo apt install aria2
pip install -U huggingface_hub
wget https://hf-mirror.com/hfd/hfd.sh
chmod a+x hfd.sh
export HF_ENDPOINT=https://hf-mirror.com
./hfd.sh Qwen/Qwen2.5-7B-Instruct --tool aria2c -x 10

自我认知微调

主要是配置以下参数:

  • 模型名称:Qwen2.5-7B-Instruct
  • 模型路径:配置为fd下载的本地模型路径
    其他参数暂时用默认,训练轮数设置为20。开始训练。
    训练完成后,选择相应的检查点路径,随后测试chat。
    最后export导出模型。

Alpaca数据集指令监督微调

按Alpaca格式准备好数据集

SHELL 复制代码
[
  {
    "instruction": "人类指令(必填)",
    "input": "人类输入(选填)",
    "output": "模型回答(必填)",
    "system": "系统提示词(选填)",
    "history": [
      ["第一轮指令(选填)", "第一轮回答(选填)"],
      ["第二轮指令(选填)", "第二轮回答(选填)"]
    ]
  }
]

复制数据集到data目录下,修改data/dataset_info.json

举例:

复制代码
"数据集名称": {
  "file_name": "data.json",
  "columns": {
    "prompt": "instruction",
    "query": "input",
    "response": "output",
    "system": "system",
    "history": "history"
  }
}

如果数据集没有相应的键,就先去掉data/dataset_info.json对应的键。比如我的数据集没有history,我就把data/dataset_info.json关于history的部分去掉。

断点续训

  1. 配置检查点路径为对应checkpoint对应位置(一般在saves文件夹)
  2. 如果有训练参数文件,加载训练参数(下次开始训练前可以点击保存,在config文件夹可以找到)
  3. 配置输出目录配置路径
  4. 点击预览命令,主要查看adapter_name_or_pathoutput_dir参数

参考:
使用微调神器LLaMA-Factory轻松改变大语言模型的自我认知
使用hfd工具快速下载huggingface模型权重-应该是目前最快的

相关推荐
l1t3 小时前
DeepSeek总结的llama.cpp使用说明
llama
爱跑步的程序员~3 天前
SpringBoot集成SpringAI与Ollama本地大模型
java·后端·spring·ai·llama·springai
向量引擎小橙5 天前
视觉艺术的“奇点”:深度拆解 Gemini-3-Pro-Image-Preview 绘画模型,看这只“香蕉”如何重塑 AI 创作逻辑!
人工智能·python·gpt·深度学习·llama
正宗咸豆花5 天前
开源大模型涨价策略分析:Llama 3.5 与 GLM-5 的商业化博弈
开源·llama
qq_214803296 天前
使用 LLaMA-Factory 微调 Qwen2.5 模型,并转换为 GGUF 格式部署
llama
yyoc979 天前
Mac基于LLaMA Factory微调模型导入Ollama踩坑记录
大模型·微调·llama·ollama
zhangfeng11339 天前
大语言模型调试框架 Hugging Face vs LLaMA-Factory详细对比
人工智能·语言模型·llama
zhangfeng11339 天前
大语言模型 llama-factory 通常不推荐只用 LoRA 做新词库预热 embedding
深度学习·语言模型·llama
木卫二号Coding10 天前
第八十篇-E5-2680V4+V100-32G+llama-cpp运行+Qwen3-Next-80B-UD-Q2_K_XL.GGUF
llama
小明_GLC10 天前
大模型微调 PEFT vs LLaMA-Factory
人工智能·llama·peft·大模型微调·方法对比