LLama_Factory配置及模型微调实践

一:下载及配置

1.安装llama_factory(开源项目)

复制代码
 git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git

2.验证安装

复制代码
llamafactory-cli version

3.查看pip下载源(python库)

复制代码
pip config list

# 国外源下载太慢了,且都是大的AI工具包

可以考虑换国内的清华源

复制代码
pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple
pip config set global.trusted-host pypi.tuna.tsinghua.edu.cn

4.跑大模型所需要的依赖

复制代码
pip install -e ".[torch,metrics]"

下错了版本,卸载(上述命令默认安装的是cpu版本的torch)

复制代码
pip uninstall torch torchaudio torchvision -y

下载适配torch

bash 复制代码
pip install torch==2.9.0 torchvision==0.24.0 torchaudio==2.9.0 --index-url https://download.pytorch.org/whl/cu126

# 这是笔者的

"""
torch-2.9.0+cu126 ✅ GPU 版 PyTorch

torchaudio-2.9.0+cu126 ✅ 音频库

torchvision-0.24.0+cu126 ✅ 视觉库

triton-3.5.0 ✅ 加速库

cu126,即cuda12.6版本
"""

检测gpu是否可用

复制代码
python -c "import torch; print(torch.cuda.is_available())"

# 显示True即可

补充:若是在windows里已经配置好了pytorch,gpu可用,则可以下载windows相同的版本。如何查看版本信息呢?

bash 复制代码
# 打开cmd,进入python
python

# 输出pytorch信息,检测gpu是否可用(直接粘贴)
import torch
print(torch.__version__)   # pytorch自身版本(发布的命名)
print(torch.cuda.is_available())   # gpu是否可用
print(torch.version.cuda)    # 编写pytorch的cuda版本

"""
补充:ctrl+Z 退出python
      nvidia-smi显示的是你的显卡支持的最高的cuda版本,可以向下兼容
"""

5.启动

复制代码
llamafactory-cli webui

复制地址,在windows浏览器打开

二:微调

功能解释:

量化:给模型瘦身,太大显卡跑不起来;越小瘦的越多,一般推荐4

量化算法:使用哪种方法给模型瘦身;跑模型:GPTQ,微调:BitsAndBytes(bnb)

模型下载

hugging face下载连不上网络

复制代码
# 打开cmd
pip install modelscope

# 进入你想安装model的路径
modelscope download --model qwen/Qwen2.5-7B-Instruct
相关推荐
zhangfeng11335 小时前
LLaMA-Factory 在训练模型时检查点(Checkpoint)文件说明
人工智能·深度学习·llama
ONE_SIX_MIX21 小时前
最先进llama.cpp量化方法PK,APEX vs UD_XL,在 Qwen3.6-35B-A3B 中爆发! 2026年4月
apex·llama·量化·unsloth
天地沧海3 天前
GPT、BERT、LLaMA 这些模型类别怎么区分
gpt·bert·llama
胖少年5 天前
从零开始:在 Windows 上用 llama.cpp 跑本地大模型
windows·llama
路人与大师6 天前
在天垓150上部署 Llama-2-13B:一次 Iluvatar BI-V150 / CoreX 实战适配记录
llama
code_pgf6 天前
Llama 3 / Qwen / Mistral / DeepSeek 对比详解
人工智能·知识图谱·llama
yumgpkpm6 天前
Qwen3.6正式开源,华为昇腾910B实现高效适配
华为·ai作画·stable diffusion·开源·ai写作·llama·gpu算力
究极无敌暴龙战神X8 天前
RAG基本流程
自然语言处理·llama·rag
code_pgf9 天前
Llama 3详解
人工智能·llama