LLaMa Factory大模型微调

LLaMa Factory大模型微调

大模型微调

微调自我认知+微调特定领域数据集。

平台&硬件

  • Ubuntu20.04
  • 显卡:M40 24G + 2080TI 22G
  • 微调框架:LLaMA-Factory

LLaMA-Factory安装

SHELL 复制代码
git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git
cd LLaMA-Factory
pip install -e ".[torch,metrics]"

启动项目所提供的webui操作界面(因为我这里有两张型号不一样的显卡,经过测试不能混合训练,因此指定使用单卡2080TI):

SHELL 复制代码
export CUDA_VISIBLE_DEVICES=0
llamafactory-cli webui

URL:http://localhost:7860/

如果报错ValueError: Unknown scheme for proxy URL URL('socks://127.0.0.1:7897/')

解决方案参考解决openai调用出现的valueerror: unknown scheme for proxy url url('socks://127.0.0.1:7890/'),使用下面命令查看系统的代理设置

SHELL 复制代码
env|grep -i proxy

看看有没有出现下面的all_proxy的设置。

SHELL 复制代码
no_proxy=localhost,127.0.0.1,192.168.0.0/16,10.0.0.0/8,172.16.0.0/12,::1
https_proxy=http://127.0.0.1:7897/
NO_PROXY=localhost,127.0.0.1,192.168.0.0/16,10.0.0.0/8,172.16.0.0/12,::1
HTTPS_PROXY=http://127.0.0.1:7897/
HTTP_PROXY=http://127.0.0.1:7897/
http_proxy=http://127.0.0.1:7897/
ALL_PROXY=socks://127.0.0.1:7897/
all_proxy=socks://127.0.0.1:7897/

如果有all_proxy的设置,使用下面命令设置为空就行。(原理未知)

SHELL 复制代码
export ALL_PROXY=''
export all_proxy=''

hfd下载hugging face模型

以Qwen/Qwen2.5-7B-Instruct为例

不确定模型的名字的话,打开链接https://hf-mirror.com/api/models,搜相应的模型名字,比如我这里直接搜Qwen2.5-7B-Instruct,然后得知模型全称是Qwen/Qwen2.5-7B-Instruct

shell 复制代码
sudo apt install aria2
pip install -U huggingface_hub
wget https://hf-mirror.com/hfd/hfd.sh
chmod a+x hfd.sh
export HF_ENDPOINT=https://hf-mirror.com
./hfd.sh Qwen/Qwen2.5-7B-Instruct --tool aria2c -x 10

自我认知微调

主要是配置以下参数:

  • 模型名称:Qwen2.5-7B-Instruct
  • 模型路径:配置为fd下载的本地模型路径
    其他参数暂时用默认,训练轮数设置为20。开始训练。
    训练完成后,选择相应的检查点路径,随后测试chat。
    最后export导出模型。

Alpaca数据集指令监督微调

按Alpaca格式准备好数据集

SHELL 复制代码
[
  {
    "instruction": "人类指令(必填)",
    "input": "人类输入(选填)",
    "output": "模型回答(必填)",
    "system": "系统提示词(选填)",
    "history": [
      ["第一轮指令(选填)", "第一轮回答(选填)"],
      ["第二轮指令(选填)", "第二轮回答(选填)"]
    ]
  }
]

复制数据集到data目录下,修改data/dataset_info.json

举例:

复制代码
"数据集名称": {
  "file_name": "data.json",
  "columns": {
    "prompt": "instruction",
    "query": "input",
    "response": "output",
    "system": "system",
    "history": "history"
  }
}

如果数据集没有相应的键,就先去掉data/dataset_info.json对应的键。比如我的数据集没有history,我就把data/dataset_info.json关于history的部分去掉。

断点续训

  1. 配置检查点路径为对应checkpoint对应位置(一般在saves文件夹)
  2. 如果有训练参数文件,加载训练参数(下次开始训练前可以点击保存,在config文件夹可以找到)
  3. 配置输出目录配置路径
  4. 点击预览命令,主要查看adapter_name_or_pathoutput_dir参数

参考:
使用微调神器LLaMA-Factory轻松改变大语言模型的自我认知
使用hfd工具快速下载huggingface模型权重-应该是目前最快的

相关推荐
进取星辰4 小时前
Windows 10 上运行 Ollama 时遇到 llama runner process has terminated: exit status 2
windows·llama
脑极体1 天前
应激的Llama,开源的困局
llama
游离子丶3 天前
LLama Factory从入门到放弃
语言模型·游戏程序·llama·yuzu-soft
T0uken4 天前
【LLM】llama.cpp:合并 GGUF 模型分片
语言模型·llama
剑客的茶馆5 天前
GPT,Genini, Claude Llama, DeepSeek,Qwen,Grok,选对LLM大模型真的可以事半功倍!
gpt·llm·llama·选择大模型
try2find5 天前
llama-webui docker实现界面部署
docker·容器·llama
寻丶幽风6 天前
论文阅读笔记——Mixtral of Experts
论文阅读·笔记·语言模型·llama·moe
deephub6 天前
从零开始用Pytorch实现LLaMA 4的混合专家(MoE)模型
人工智能·pytorch·深度学习·大语言模型·llama
仙人掌_lz9 天前
详解如何复现LLaMA 4:从零开始利用Python构建
人工智能·python·ai·llama·智能体·ai agents