基于LLaMA Factory对LLama 3指令微调的操作学习笔记

一、环境

在vscode中用连接云服务器,打开文件目录。

bash 复制代码
df -h #查看盘容量

二、下载LLaMA Factory框架和数据

下载LLaMA Factory到云服务器

bash 复制代码
git clone https://github.com/hiyouga/LLaMA-Factory.git
cd LLaMA-Factory
pip install -e .
pip install -e .命令的含义是在当前目录下查找一个setup.py文件(或其他pyproject.toml文件,取决于包的配置),并根据该文件的指示以可编辑模式安装包。

将下载的数据放到LLaMA Factory data文件夹下,同时将json格式输入到dataset_info.json文件中。

启动 Web UI

bash 复制代码
cd LLaMA-Factory
llamafactory-cli webui

三、下载模型

用中文微调过的模型。

bash 复制代码
pip install -U huggingface_hub
pip install huggingface-cli

export HF_ENDPOINT=https://hf-mirror.com

huggingface-cli download --resume-download shenzhi-wang/Llama3-8B-Chinese-Chat --local-dir /root/autodl-tmp/models/Llama3-8B-Chinese-Chat1

四、微调训练和推理

加速方式选择unsloth会报错unsloth不存在

推理的时候选择vllm也会报错版本不合适。

gpu使用情况监控和进程杀死

【工具篇】如何优雅地监控显卡(GPU)使用情况? - 知乎 (zhihu.com)

终止进程后,GPU显存仍被占用问题: kill -9彻底杀死进程 | ps aux|grep python | 怎么确认僵尸进程?_杀死进程后显存还是没有下降-CSDN博客

还需要学习Unsloth 上进行微调

基于unsloth微调llama3.1_哔哩哔哩_bilibili

参考说明

【大模型微调】使用Llama Factory实现中文llama3微调_哔哩哔哩_bilibili

LLaMA-Factory: 大语言模型统一高效微调框架 (gitee.com)

cgft-llm/llama-factory/README.md at master · echonoshy/cgft-llm · GitHub

相关推荐
风起晨曦2 天前
LLaMa Factory 安装
llama
运维开发王义杰2 天前
AI: Unsloth + Llama 3 微调实践,基于Colab
人工智能·llama
风起晨曦2 天前
(LLaMa Factory)大模型训练方法--预训练(Qwen2-0.5B)
llama
风起晨曦2 天前
(LLaMa Factory)大模型训练方法--监督微调(Qwen2-0.5B)
llama
mygodalien2 天前
Win7编译GPU版llama.cpp部署deepseek-r1等大模型记录
人工智能·机器学习·chatgpt·llama
shandianchengzi3 天前
【BUG】LLM|Ubuntu 用 ollama 部署 DeepSeek 但没输出,llama 有输出
ubuntu·llm·bug·llama·ollama·deepseek
翻滚的小@强3 天前
Llama3.0论文学习笔记: The Llama 3 Herd of Models
大语言模型·llama
智模睿脑君5 天前
多模态本地部署和ollama部署Llama-Vision实现视觉问答
人工智能·计算机视觉·语言模型·ai作画·视觉检测·transformer·llama
闻道且行之5 天前
大预言模型|微调大预言模型初探索(LLaMA-Factory)(1)
语言模型·llama
uncle_ll5 天前
基于 llama-index与Qwen大模型实现RAG
大模型·llm·llama·qwen·rag