在本地(Windows环境)部署LLaMa-Factory,进行模型微调步骤!!!

一、准备环境

bash 复制代码
1、GPU:NVIDIA GeForce RTX3060
2、CPU:12th Gen Intel(R) Core(TM) i7-12700
3、内存:32GB
4、版本:Windows11 专业版、版本号:24H2、操作系统版本:26100.7623

二、python环境准备

bash 复制代码
# 安装python
## LLaMA-Factory 官方推荐 Python 3.8-3.10、本次使用的时3.10版本
下载python-3.10.0-amd64.exe # Windows后,双击安装即可
# cmd命令行下、验证版本
python --version

三、CUDA环境安装

bash 复制代码
# 下载、安装NVIDIA的并行计算平台和编程模型CUDA
https://developer.nvidia.com/cuda-gpus

# 安装完成后,运行命令验证
nvcc -V
bash 复制代码
# 卸载CPU版
pip uninstall torch torchvision torchaudio

# 查看CU版本
nvidia-smi
# 右上角有CUDA Version

# 安装GPU版(示例CUDA 12.6)大约需要十几分钟吧
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu126

# 命令验证
C:\Windows\System32>python
Python 3.10.0 (tags/v3.10.0:b494f59, Oct  4 2021, 19:00:18) [MSC v.1929 64 bit (AMD64)] on win32
Type "help", "copyright", "credits" or "license" for more information.
>>> import torch
>>> print("CUDA 可用:", torch.cuda.is_available())
CUDA 可用: True
>>> print(f"PyTorch 版本: {torch.__version__}")
PyTorch 版本: 2.10.0+cu126
>>> print(f"CUDA 版本: {torch.version.cuda}")
CUDA 版本: 12.6

四、LLaMA-Factory安装

bash 复制代码
git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git
# 从国内资源中,直接download下来zip包解压也可以
https://gitcode.com/qq_52095705111/LLaMA-Factory

# 执行以下命令,大约需要十几分钟吧
cd LLaMA-Factory
pip install -e .
pip install -r requirements.txt

# 安装完成后,验证版本
llamafactory-cli version

五、运行LLaMA-Factory

bash 复制代码
cd LLaMA-Factory
llamafactory-cli webui

http://localhost:7860

至此、全部结束!!

相关推荐
熊明才8 分钟前
PM2 服务器服务运维入门指南
运维·服务器·windows
沉迷学习 日益消瘦17 分钟前
(windows环境)白嫖阿里云百炼免费 Token 使用 Claude 教程
windows·阿里云·claude·token·百炼
Mr_Xuhhh35 分钟前
深入浅出ArrayList:从线性表到洗牌算法,掌握Java集合核心
windows
sunfdf1 小时前
使用免费工具在 Windows 11/10/8/7 中扩展 C 盘的 3 种方法
windows
CoderJia程序员甲2 小时前
GitHub 热榜项目 - 日榜(2026-04-07)
ai·大模型·llm·github·ai教程
编写人生2 小时前
我花了一上午,帮一个 AI 找到了自己的"亲生父母"
ai
月走乂山2 小时前
Trae CLI 全局配置 - Windows PATH 配置
windows
l1t3 小时前
DeepSeek辅助编写的dmp转schema和csv文件c语言程序
c语言·开发语言·windows
Flittly3 小时前
【SpringAIAlibaba新手村系列】(12)RAG 检索增强生成技术
java·人工智能·spring boot·spring·ai