CentOS8.5 LLaMA-Factory训练模型

注:VMware16 + CentOS8.5 虚拟机尝试,不能实现GPU直通,训练不能成功。需要单独服务器直接安装linux系统。还要查看自己的显卡是否支持CUDA

CUDA GPU | NVIDIA 开发者

魔搭社区下载模型需要安装:

复制代码
pip install modelscope

使用量化需要安装:

复制代码
pip install bitsandbytes

下载模型

模型库:模型库首页 · 魔搭社区

找到你需要的模型

例如:Llama-3.2-3B-Instruct

使用命令下载:

复制代码
modelscope download --model LLM-Research/Llama-3.2-3B-Instruct

默认下载的模型目录:

用户目录下的.cache/modelscope/hub/models/(cache前的点不要忽略)

LLaMA-Factory放入模型

复制代码
cd ~/LLaMA-Factory/

mkdir models/

cp -r ~/.cache/modelscope/hub/models/ ~/LLaMA-Factory/models/

运行LLaMA-Factory页面

复制代码
conda  activate llamafactory

llamafactory-cli webui

配置页面属性

本地模型需要填写全路径:

/root/LLaMA-Factory/models/models/LLM-Research/Llama-3.2-3B-Instruct

此时就表示,我们的模型可用了。

自定义数据集准备

下载示例数据集

以下是使用示例数据集的步骤,假设您使用的是PAI提供的多轮对话数据集:

复制代码
cd LLaMA-Factory
wget https://atp-modelzoo-sh.oss-cn-shanghai.aliyuncs.com/release/tutorials/llama_factory/data.zip
mv data data.bak
unzip data.zip -d data

查看数据集

设置训练参数

可以打开量化进行加速;

下方数据集是选择出现的,不是自己填进去的,如果不行,就把数据路径搞成全路径。

开始微调

在Web UI中设置好参数后,您可以开始模型微调过程。微调完成后,您可以在界面上观察到训练进度和损失曲线。

启动微调后需要等待大约20分钟,待模型下载完毕后,可在界面观察到训练进度和损失曲线。当显示训练完毕时,代表模型微调成功。

评估模型

未完成,待继续

相关推荐
留意_yl8 分钟前
量化感知训练(QAT)流程
人工智能
从0至18 分钟前
C++编程入门:从基础到复合类型
开发语言·c++
java1234_小锋9 分钟前
【NLP舆情分析】基于python微博舆情分析可视化系统(flask+pandas+echarts) 视频教程 - 热词数量分析日期统计功能实现
python·自然语言处理·flask
山烛25 分钟前
KNN 算法中的各种距离:从原理到应用
人工智能·python·算法·机器学习·knn·k近邻算法·距离公式
盲盒Q35 分钟前
《频率之光:归途之光》
人工智能·硬件架构·量子计算
guozhetao38 分钟前
【ST表、倍增】P7167 [eJOI 2020] Fountain (Day1)
java·c++·python·算法·leetcode·深度优先·图论
墨染点香44 分钟前
第七章 Pytorch构建模型详解【构建CIFAR10模型结构】
人工智能·pytorch·python
go546315846544 分钟前
基于分组规则的Excel数据分组优化系统设计与实现
人工智能·学习·生成对抗网络·数学建模·语音识别
茫茫人海一粒沙1 小时前
vLLM 的“投机取巧”:Speculative Decoding 如何加速大语言模型推理
人工智能·语言模型·自然语言处理
诗酒当趁年华1 小时前
【NLP实践】二、自训练数据实现中文文本分类并提供RestfulAPI服务
人工智能·自然语言处理·分类