基于LLaMA Factory对LLama 3指令微调的操作学习笔记

一、环境

在vscode中用连接云服务器,打开文件目录。

bash 复制代码
df -h #查看盘容量

二、下载LLaMA Factory框架和数据

下载LLaMA Factory到云服务器

bash 复制代码
git clone https://github.com/hiyouga/LLaMA-Factory.git
cd LLaMA-Factory
pip install -e .
复制代码
pip install -e .命令的含义是在当前目录下查找一个setup.py文件(或其他pyproject.toml文件,取决于包的配置),并根据该文件的指示以可编辑模式安装包。

将下载的数据放到LLaMA Factory data文件夹下,同时将json格式输入到dataset_info.json文件中。

启动 Web UI

bash 复制代码
cd LLaMA-Factory
llamafactory-cli webui

三、下载模型

用中文微调过的模型。

bash 复制代码
pip install -U huggingface_hub
pip install huggingface-cli

export HF_ENDPOINT=https://hf-mirror.com

huggingface-cli download --resume-download shenzhi-wang/Llama3-8B-Chinese-Chat --local-dir /root/autodl-tmp/models/Llama3-8B-Chinese-Chat1

四、微调训练和推理

加速方式选择unsloth会报错unsloth不存在

推理的时候选择vllm也会报错版本不合适。

gpu使用情况监控和进程杀死

【工具篇】如何优雅地监控显卡(GPU)使用情况? - 知乎 (zhihu.com)

终止进程后,GPU显存仍被占用问题: kill -9彻底杀死进程 | ps aux|grep python | 怎么确认僵尸进程?_杀死进程后显存还是没有下降-CSDN博客

还需要学习Unsloth 上进行微调

基于unsloth微调llama3.1_哔哩哔哩_bilibili

参考说明

【大模型微调】使用Llama Factory实现中文llama3微调_哔哩哔哩_bilibili

LLaMA-Factory: 大语言模型统一高效微调框架 (gitee.com)

cgft-llm/llama-factory/README.md at master · echonoshy/cgft-llm · GitHub

相关推荐
木卫二号Coding15 小时前
第七十九篇-E5-2680V4+V100-32G+llama-cpp编译运行+Qwen3-Next-80B
linux·llama
lili-felicity16 小时前
CANN优化LLaMA大语言模型推理:KV-Cache与FlashAttention深度实践
人工智能·语言模型·llama
大傻^2 天前
大模型基于llama.cpp量化详解
llama·大模型量化
大傻^2 天前
大模型微调-基于llama-factory详解
llama·模型微调
空中楼阁,梦幻泡影3 天前
主流4 大模型(GPT、LLaMA、DeepSeek、QWE)的训练与推理算力估算实例详细数据
人工智能·gpt·llama
蓝田生玉1233 天前
LLaMA论文阅读笔记
论文阅读·笔记·llama
木卫二号Coding3 天前
第七十七篇-V100+llama-cpp-python-server+Qwen3-30B+GGUF
开发语言·python·llama
木卫二号Coding3 天前
第七十六篇-V100+llama-cpp-python+Qwen3-30B+GGUF
开发语言·python·llama
姚华军4 天前
在本地(Windows环境)部署LLaMa-Factory,进行模型微调步骤!!!
windows·ai·llama·llama-factory
Honmaple4 天前
openclaw使用llama.cpp 本地大模型部署教程
llama