基于LLaMA Factory对LLama 3指令微调的操作学习笔记

一、环境

在vscode中用连接云服务器,打开文件目录。

bash 复制代码
df -h #查看盘容量

二、下载LLaMA Factory框架和数据

下载LLaMA Factory到云服务器

bash 复制代码
git clone https://github.com/hiyouga/LLaMA-Factory.git
cd LLaMA-Factory
pip install -e .
复制代码
pip install -e .命令的含义是在当前目录下查找一个setup.py文件(或其他pyproject.toml文件,取决于包的配置),并根据该文件的指示以可编辑模式安装包。

将下载的数据放到LLaMA Factory data文件夹下,同时将json格式输入到dataset_info.json文件中。

启动 Web UI

bash 复制代码
cd LLaMA-Factory
llamafactory-cli webui

三、下载模型

用中文微调过的模型。

bash 复制代码
pip install -U huggingface_hub
pip install huggingface-cli

export HF_ENDPOINT=https://hf-mirror.com

huggingface-cli download --resume-download shenzhi-wang/Llama3-8B-Chinese-Chat --local-dir /root/autodl-tmp/models/Llama3-8B-Chinese-Chat1

四、微调训练和推理

加速方式选择unsloth会报错unsloth不存在

推理的时候选择vllm也会报错版本不合适。

gpu使用情况监控和进程杀死

【工具篇】如何优雅地监控显卡(GPU)使用情况? - 知乎 (zhihu.com)

终止进程后,GPU显存仍被占用问题: kill -9彻底杀死进程 | ps aux|grep python | 怎么确认僵尸进程?_杀死进程后显存还是没有下降-CSDN博客

还需要学习Unsloth 上进行微调

基于unsloth微调llama3.1_哔哩哔哩_bilibili

参考说明

【大模型微调】使用Llama Factory实现中文llama3微调_哔哩哔哩_bilibili

LLaMA-Factory: 大语言模型统一高效微调框架 (gitee.com)

cgft-llm/llama-factory/README.md at master · echonoshy/cgft-llm · GitHub

相关推荐
illuspas13 小时前
Ubuntu 24.04下编译支持ROCm加速的llama.cpp
linux·ubuntu·llama
缘友一世3 天前
LLama3架构原理浅浅学学
人工智能·自然语言处理·nlp·transformer·llama
我们没有完整的家4 天前
批量吞吐量实测:Llama-2-7b 昇腾 NPU 六大场景数据报告
llama
asfdsfgas4 天前
从加载到推理:Llama-2-7b 昇腾 NPU 全流程性能基准
人工智能·llama
asdfsdgss4 天前
FP16 vs INT8:Llama-2-7b 昇腾 NPU 精度性能基准报告
llama
猿代码_xiao4 天前
大模型微调完整步骤( LLama-Factory)
人工智能·深度学习·自然语言处理·chatgpt·llama·集成学习
wei_shuo6 天前
Llama-2-7b 昇腾 NPU 测评总结:核心性能数据、场景适配建议与硬件选型参考
大模型·llama·昇腾
凯子坚持 c6 天前
Llama-2-7b在昇腾NPU上的六大核心场景性能基准报告
java·开发语言·llama
落798.6 天前
【在昇腾NPU上部署Llama-2-7B:从环境配置到性能测试的完整实战】
经验分享·llama·1024程序员节
缘友一世6 天前
LLama 3分组查询注意力与KV缓存机制
人工智能·深度学习·缓存·transformer·llama·gqa·kv缓存